与 ClickHouse Cloud 集成
介绍
ClickPipes 是一个管理集成平台,使从多种来源获取数据变得如此简单,只需单击几下按钮。 ClickPipes 的强大和可扩展架构旨在应对最苛刻的工作负载,确保一致的性能和可靠性。 ClickPipes 可用于长期流式传输需求或一次性数据加载作业。
支持的数据源
名称 | 徽标 | 类型 | 状态 | 描述 |
---|---|---|---|---|
Apache Kafka | 流式 | 稳定 | 配置 ClickPipes,开始从 Apache Kafka 中获取流式数据到 ClickHouse Cloud。 | |
Confluent Cloud | 流式 | 稳定 | 通过我们的直接集成,解锁 Confluent 和 ClickHouse Cloud 的强大组合。 | |
Redpanda | 流式 | 稳定 | 配置 ClickPipes,开始从 Redpanda 中获取流式数据到 ClickHouse Cloud。 | |
AWS MSK | 流式 | 稳定 | 配置 ClickPipes,开始从 AWS MSK 中获取流式数据到 ClickHouse Cloud。 | |
Azure Event Hubs | 流式 | 稳定 | 配置 ClickPipes,开始从 Azure Event Hubs 中获取流式数据到 ClickHouse Cloud。 | |
WarpStream | 流式 | 稳定 | 配置 ClickPipes,开始从 WarpStream 中获取流式数据到 ClickHouse Cloud。 | |
Amazon S3 | 对象存储 | 稳定 | 配置 ClickPipes 以获取大量来自对象存储的数据。 | |
Google Cloud Storage | 对象存储 | 稳定 | 配置 ClickPipes 以获取大量来自对象存储的数据。 | |
DigitalOcean Spaces | 对象存储 | 稳定 | 配置 ClickPipes 以获取大量来自对象存储的数据。 | |
Azure Blob Storage | 对象存储 | 私有测试 | 配置 ClickPipes 以获取大量来自对象存储的数据。 | |
Amazon Kinesis | 流式 | 稳定 | 配置 ClickPipes,开始从 Amazon Kinesis 中获取流式数据到 ClickHouse Cloud。 | |
Postgres | DBMS | 稳定 | 配置 ClickPipes,开始从 Postgres 中获取数据到 ClickHouse Cloud。 | |
MySQL | DBMS | 私有测试 | 配置 ClickPipes,开始从 MySQL 中获取数据到 ClickHouse Cloud。 |
更多连接器将添加到 ClickPipes,您可以通过 联系我们 了解更多信息。
静态 IP 列表
以下是 ClickPipes 用于连接到您的外部服务的静态 NAT IP(按地区划分)。将您相关实例区域的 IP 添加到您的 IP 允许列表中以允许流量。如果您的实例区域未在此列出,则将使用默认区域:
- eu-central-1 适用于所有 EU 区域
- us-east-1 适用于
us-east-1
中的实例 - us-east-2 适用于其他区域
ClickHouse Cloud 区域 | IP 地址 |
---|---|
eu-central-1 | 18.195.233.217 , 3.127.86.90 , 35.157.23.2 , 18.197.167.47 , 3.122.25.29 , 52.28.148.40 |
us-east-2 | 3.131.130.196 , 3.23.172.68 , 3.20.208.150 , 3.132.20.192 , 18.119.76.110 , 3.134.185.180 |
us-east-1 | 54.82.38.199 , 3.90.133.29 , 52.5.177.8 , 3.227.227.145 , 3.216.6.184 , 54.84.202.92 , 3.131.130.196 , 3.23.172.68 , 3.20.208.150 |
调整 ClickHouse 设置
ClickHouse Cloud 为大多数用例提供合理的默认设置。 然而,如果您需要为 ClickPipes 目标表调整某些 ClickHouse 设置,专用角色是最灵活的解决方案。 步骤:
- 创建自定义角色
CREATE ROLE my_clickpipes_role SETTINGS ...
。有关详细信息,请参见 CREATE ROLE 语法。 - 在 ClickPipes 创建过程中,在
细节和设置
步骤中将自定义角色添加到 ClickPipes 用户。

错误报告
ClickPipes 将在您的目标表旁创建一个后缀为 <destination_table_name>_clickpipes_error
的表。该表将包含来自 ClickPipe 操作(网络、连接等)的任何错误,以及任何不符合模式的数据。错误表的 TTL 为 7 天。如果 ClickPipes 在 15 分钟后无法连接到数据源或目标,则 ClickPipes 实例停止并在错误表中存储适当的消息(前提是 ClickHouse 实例可用)。
常见问题解答
-
什么是 ClickPipes?
ClickPipes 是一个 ClickHouse Cloud 功能,使用户能够轻松连接他们的 ClickHouse 服务与外部数据源,特别是 Kafka。使用 ClickPipes for Kafka,用户可以轻松地持续将数据加载到 ClickHouse 中,使其可用于实时分析。
-
ClickPipes 是否支持数据转换?
是的,ClickPipes 通过暴露 DDL 创建来支持基本数据转换。 然后,您可以在数据加载到 ClickHouse Cloud 服务的目标表时,利用 ClickHouse 的 物化视图功能 对数据进行更高级的转换。
-
使用 ClickPipes 是否需要额外费用?
ClickPipes 按两个维度计费:获取的数据和计算。定价的完整细节可在 此页面 上找到。运行 ClickPipes 可能还会导致在目标 ClickHouse Cloud 服务上产生与任何数据加载工作负载类似的间接计算和存储费用。
-
使用 ClickPipes for Kafka 时有没有办法处理错误或故障?
是的,当从 Kafka 消费数据时,如果发生故障,ClickPipes for Kafka 会自动重试。 ClickPipes 还支持启用一个专用错误表,该表将在 7 天内保存错误和格式不正确的数据。