hdfs 表函数
从 HDFS 中的文件创建一个表。此表函数类似于 url 和 file 表函数。
语法
参数
参数 | 描述 |
---|---|
URI | HDFS 中文件的相对 URI。对于只读模式,文件路径支持以下通配符:* 、? 、{abc,def} 和 {N..M} ,其中 N 和 M 是数字,'abc' 、'def' 是字符串。 |
format | 文件的 format。 |
structure | 表的结构。格式为 'column1_name column1_type, column2_name column2_type, ...' 。 |
返回值
具有指定结构的表,用于读取或写入指定文件中的数据。
示例
来自 hdfs://hdfs1:9000/test
的表并选择前两行:
路径中的通配符
路径可以使用通配符。文件必须匹配整个路径模式,而不仅仅是后缀或前缀。
*
— 代表任意多个字符,除了/
,但包括空字符串。**
— 代表文件夹中的所有文件,递归查找。?
— 代表任意单个字符。{some_string,another_string,yet_another_one}
— 替换任意字符串'some_string'
、'another_string'
、'yet_another_one'
。字符串可以包含/
符号。{N..M}
— 代表任何数字>= N
和<= M
。
带有 {}
的构造与 remote 和 file 表函数类似。
示例
- 假设我们在 HDFS 上有几个文件,URI 如下:
- 'hdfs://hdfs1:9000/some_dir/some_file_1'
- 'hdfs://hdfs1:9000/some_dir/some_file_2'
- 'hdfs://hdfs1:9000/some_dir/some_file_3'
- 'hdfs://hdfs1:9000/another_dir/some_file_1'
- 'hdfs://hdfs1:9000/another_dir/some_file_2'
- 'hdfs://hdfs1:9000/another_dir/some_file_3'
- 查询这些文件中的行数:
- 查询这两个目录中所有文件的行数:
备注
如果您的文件列表包含带前导零的数字范围,则分别为每个数字使用花括号构造,或使用 ?
。
示例
查询名为 file000
、file001
、...、file999
的文件中的数据:
虚拟列
_path
— 文件的路径。类型:LowCardinality(String)
。_file
— 文件的名称。类型:LowCardinality(String)
。_size
— 文件的大小(以字节为单位)。类型:Nullable(UInt64)
。如果大小未知,则值为NULL
。_time
— 文件的最后修改时间。类型:Nullable(DateTime)
。如果时间未知,则值为NULL
。
Hive 风格的分区
当设置 use_hive_partitioning
为 1 时,ClickHouse 将检测路径中的 Hive 风格分区(/name=value/
),并允许在查询中使用分区列作为虚拟列。这些虚拟列将拥有与分区路径相同的名称,但以 _
开头。
示例
使用通过 Hive 风格分区创建的虚拟列
存储设置
- hdfs_truncate_on_insert - 允许在插入之前截断文件。默认情况下禁用。
- hdfs_create_new_file_on_insert - 在每次插入时如果格式有后缀,则允许创建新文件。默认情况下禁用。
- hdfs_skip_empty_files - 允许在读取时跳过空文件。默认情况下禁用。