hdfsCluster 表函数
允许从指定集群中的多个节点并行处理 HDFS 中的文件。在发起者上,它会创建与集群中所有节点的连接,揭示 HDFS 文件路径中的星号,并动态调度每个文件。在工作节点上,它询问发起者下一个要处理的任务并进行处理。这一过程会重复,直到所有任务完成。
语法
参数
参数 | 描述 |
---|---|
cluster_name | 用于构建远程和本地服务器地址及连接参数集的集群名称。 |
URI | 文件或一组文件的 URI。支持只读模式下的以下通配符: * , ** , ? , {'abc','def'} 和 {N..M} 其中 N , M — 数字,abc , def — 字符串。有关更多信息,请参见 路径中的通配符。 |
format | 文件的 格式。 |
structure | 表的结构。格式为 'column1_name column1_type, column2_name column2_type, ...' 。 |
返回值
具有指定结构的表,用于读取指定文件中的数据。
示例
- 假设我们有一个名为
cluster_simple
的 ClickHouse 集群,以及以下 URI 的几个文件在 HDFS 上:
- 'hdfs://hdfs1:9000/some_dir/some_file_1'
- 'hdfs://hdfs1:9000/some_dir/some_file_2'
- 'hdfs://hdfs1:9000/some_dir/some_file_3'
- 'hdfs://hdfs1:9000/another_dir/some_file_1'
- 'hdfs://hdfs1:9000/another_dir/some_file_2'
- 'hdfs://hdfs1:9000/another_dir/some_file_3'
- 查询这些文件中的行数:
- 查询这两个目录中所有文件的行数:
备注
如果您的文件列表包含带有前导零的数字范围,请为每个数字单独使用大括号构造,或使用 ?
。