Skip to main content
版本:1.13.0

HDFS

概览

HDFS 连接器为 Flink 内部依赖,支持分区文件。 在 Flink 中包含了该文件系统连接器,不需要添加额外的依赖。 相应的 jar 包可以在 Flink 工程项目的 /lib 目录下找到。 从文件系统中读取或者向文件系统中写入行时,需要指定相应的 format。

如何创建 HDFS 加载节点

SQL API 的使用

使用 Flink SQL Cli :

CREATE TABLE hdfs_load_node (
id STRING,
name STRING,
uv BIGINT,
pv BIGINT,
dt STRING,
`hour` STRING
) PARTITIONED BY (dt, `hour`) WITH (
'connector'='filesystem-inlong',
'path'='...',
'format'='orc',
'sink.partition-commit.delay'='1 h',
'sink.partition-commit.policy.kind'='success-file'
);

File Formats

  • CSV(非压缩格式)
  • JSON(文件系统连接器的 JSON format 与传统的标准的 JSON file 的不同,而是非压缩的。换行符分割的 JSON)
  • Avro(通过配置 avro.codec 属性支持压缩)
  • Parquet(与 hive 兼容)
  • Orc(与 hive 兼容)
  • Debezium-JSON
  • Canal-JSON
  • Raw

备注:文件格式明细可以查看Flink Formats

滚动策略

数据会被加载到文件的目录下的 part 文件中,每个分区接收到来之 subtask 的数据至少会为该分区生成一个 part 文件。同时可以配置滚动策略 来生成 part 文件,生成 part 文件会将 in-progress part 文件关闭。该策略基于大小和指定文件被打开的超时时间来生成 part 文件。

参数默认值数据类型描述
sink.rolling-policy.file-size128MBMemorySize滚动前 part 文件的最大值。
sink.rolling-policy.rollover-interval30 minString滚动前,part 文件处于打开状态的最大时长(默认值30分钟,以避免产生大量小文件)。 检查频率是由 'sink.rolling-policy.check-interval' 属性控制的。
sink.rolling-policy.check-interval1 minString基于时间的滚动策略的检查间隔。 该属性控制了基于 'sink.rolling-policy.rollover-interval' 属性检查文件是否该被滚动的检查频率。

文件合并

支持文件能力,允许在较小的 checkpoint 下不产生大量的小文件。

参数默认值数据类型描述
auto-compactionfalseBoolean在流式 sink 中是否开启自动合并功能,数据首先会被写入临时文件。 当 checkpoint 完成后,该检查点产生的临时文件会被合并,这些临时文件在合并前不可见。
compaction.file-size(none)String合并目标文件大小,默认值为滚动文件大小。
inlong.metric.labels(none)Stringinlong metric 的标签值,该值的构成为 groupId=g[groupId]&streamId=[streamId]&nodeId=[nodeId]

分区提交

分区数据写入完成后,一般需要通知下流应用。如:更新 hive 的元数据信息或者 hdfs 目录生成 _SUCCESS 文件。 分区提交策略是配置的,分区提交行为基于 triggers 和 policies 的组合。

  • Trigger :分区提交时机可以基于分区的 watermark 或者基于处理时间(process-time)。
  • Policy :分区提交策略,内置策略包括提交 hive 元数据和生成 _SUCCESS 文件,同时支持自定策略,如生成 hive 的统计信息、合并小文件等。

备注:分区提交仅支持动态分区插入。

参数默认值数据类型描述
sink.partition-commit.triggerprocess-timeString分区提交触发器类型: 'process-time':基于机器时间既不需要分区时间提取器也不需要 watermark 生成器。 一旦 "当前系统时间" 超过了 "分区创建系统时间" 和 'sink.partition-commit.delay' 之和立即提交分区。
'partition-time':基于提取的分区时间,需要 watermark 生成。一旦 watermark 超过了 "分区创建系统时间" 和 'sink.partition-commit.delay' 之和立即提交分区。
sink.partition-commit.delay0 sDuration如果设置分区延迟提交,这个延迟时间之前不会提交。天:'d';小时:'h';秒:'s'等
sink.partition-commit.watermark-time-zoneUTCString解析 Long 类型的 watermark 到 TIMESTAMP 类型时所采用的时区, 解析得到的 watermark 的 TIMESTAMP 会被用来跟分区时间进行比较以判断是否该被提交。 这个属性仅当 `sink.partition-commit.trigger` 被设置为 'partition-time' 时有效。 如果这个属性设置的不正确,例如在 TIMESTAMP_LTZ 类型的列上定义了 source rowtime, 如果没有设置该属性,那么用户可能会在若干个小时后才看到分区的提交。 默认值为 'UTC' 意味着 watermark 是定义在 TIMESTAMP 类型的列上或者没有定义 watermark。 如果 watermark 定义在 TIMESTAMP_LTZ 类型的列上,watermark 时区必须是会话时区(session time zone)。 该属性的可选值要么是完整的时区名比如 'America/Los_Angeles',要么是自定义时区,例如 'GMT-08:00'。

分区提交策略

分区提交策略定义了分区提交使用的具体策略。

  • metastore:仅在 hive 时支持该策略。
  • success: part 文件生成后会生成 '_SUCCESS' 文件。
参数是否必须默认值数据类型描述
sink.partition-commit.policy.kind可选(none)String分区策略通知分区 part 生成可以被访问,仅 hive 支持 metastore 策略,文件系统生成 '_success' 文件表示文件写入完成。 两种策略的指定分别为 'metastore,success-file' ,也可以通过 custom 的指定的类创建提交策略。
sink.partition-commit.policy.class可选(none)String实现 PartitionCommitPolicy 接口的分区提交策略类,只有在 custom 提交策略下才使用该类。
sink.partition-commit.success-file.name可选_SUCCESSString使用 success-file 分区提交策略时的文件名,默认值是 '_SUCCESS'。