メインコンテンツへスキップ
メインコンテンツへスキップ

ClickHouse Cloud との連携

はじめに

ClickPipes は、さまざまなデータソースからのデータを、数回クリックするだけで簡単に取り込むことができるマネージド型統合プラットフォームです。最も厳しいワークロード向けに設計された ClickPipes の堅牢でスケーラブルなアーキテクチャは、一貫したパフォーマンスと高い信頼性を実現します。ClickPipes は、長期的なストリーミング用途にも、単発のデータロード・ジョブにも利用できます。

ClickPipes スタック

サポートされているデータソース

名前ロゴタイプステータス説明
Apache KafkaStreamingStableClickPipes を構成し、Apache Kafka から ClickHouse Cloud へのストリーミングデータの取り込みを開始します。
Confluent CloudStreamingStableConfluent と ClickHouse Cloud のダイレクト連携により、両者を組み合わせた高いパフォーマンスを引き出します。
Redpanda
Redpanda ロゴ
StreamingStableClickPipes を構成し、Redpanda から ClickHouse Cloud へのストリーミングデータの取り込みを開始します。
AWS MSKStreamingStableClickPipes を構成し、AWS MSK から ClickHouse Cloud へのストリーミングデータの取り込みを開始します。
Azure Event HubsStreamingStableClickPipes を構成し、Azure Event Hubs から ClickHouse Cloud へのストリーミングデータの取り込みを開始します。詳細なガイダンスについては Azure Event Hubs FAQ を参照してください。
WarpStreamStreamingStableClickPipes を構成し、WarpStream から ClickHouse Cloud へのストリーミングデータの取り込みを開始します。
Amazon S3Object StorageStableClickPipes を構成し、オブジェクトストレージから大量のデータを取り込めるようにします。
Google Cloud StorageObject StorageStableClickPipes を構成し、オブジェクトストレージから大量のデータを取り込めるようにします。
DigitalOcean SpacesObject StorageStableClickPipes を構成し、オブジェクトストレージから大量のデータを取り込めるようにします。
Azure Blob StorageObject StorageStableClickPipes を構成し、オブジェクトストレージから大量のデータを取り込めるようにします。
Amazon KinesisStreamingStableClickPipes を構成し、Amazon Kinesis から ClickHouse Cloud へのストリーミングデータの取り込みを開始します。
PostgresDBMSStableClickPipes を構成し、Postgres から ClickHouse Cloud へのデータ取り込みを開始します。
MySQLDBMSPublic BetaClickPipes を構成し、MySQL から ClickHouse Cloud へのデータ取り込みを開始します。
MongoDBDBMSPrivate PreviewClickPipes を構成し、MongoDB から ClickHouse Cloud へのデータ取り込みを開始します。

ClickPipes には今後さらに多くのコネクタが追加される予定です。詳しくはお問い合わせください。

固定 IP の一覧

以下は、ClickPipes が外部サービスへの接続に使用する固定 NAT IP(リージョンごと)です。ご利用のインスタンスが属するリージョンの IP を IP 許可リストに追加し、そのトラフィックを許可してください。オブジェクトストレージのパイプを利用する場合は、ClickHouse クラスター IP も IP 許可リストに追加する必要があります。

すべてのサービスについて、ClickPipes のトラフィックはサービスの配置場所に基づき、デフォルトのリージョンから発信されます。

  • eu-central-1: 個別に記載されていないすべての EU リージョン(GCP および Azure の EU リージョンを含む)。
  • eu-west-1: 2026 年 1 月 20 日以降に作成された、AWS eu-west-1 内のすべてのサービス(この日付より前に作成されたサービスは eu-central-1 の IP を使用)。
  • us-east-1: AWS us-east-1 内のすべてのサービス。
  • ap-south-1: 2025 年 6 月 25 日以降に作成された、AWS ap-south-1 内のサービス(この日付より前に作成されたサービスは us-east-2 の IP を使用)。
  • ap-northeast-2: 2025 年 11 月 14 日以降に作成された、AWS ap-northeast-2 内のサービス(この日付より前に作成されたサービスは us-east-2 の IP を使用)。
  • ap-southeast-2: 2025 年 6 月 25 日以降に作成された、AWS ap-southeast-2 内のサービス(この日付より前に作成されたサービスは us-east-2 の IP を使用)。
  • us-west-2: 2025 年 6 月 24 日以降に作成された、AWS us-west-2 内のサービス(この日付より前に作成されたサービスは us-east-2 の IP を使用)。
  • us-east-2: 上記で明示的に記載されていないすべてのその他のリージョン(GCP および Azure のリージョンを含む)。
AWS リージョンIP アドレス
eu-central-118.195.233.217, 3.127.86.90, 35.157.23.2, 18.197.167.47, 3.122.25.29, 52.28.148.40
eu-west-1 (2026 年 1 月 20 日以降)54.228.1.92, 54.72.101.254, 54.228.16.208, 54.76.200.104, 52.211.2.177, 54.77.10.134
us-east-154.82.38.199, 3.90.133.29, 52.5.177.8, 3.227.227.145, 3.216.6.184, 54.84.202.92, 3.131.130.196, 3.23.172.68, 3.20.208.150
us-east-23.131.130.196, 3.23.172.68, 3.20.208.150, 3.132.20.192, 18.119.76.110, 3.134.185.180
ap-south-1 (2025 年 6 月 25 日以降)13.203.140.189, 13.232.213.12, 13.235.145.208, 35.154.167.40, 65.0.39.245, 65.1.225.89
ap-northeast-2 (2025 年 11 月 14 日以降)3.38.68.69, 52.78.68.128, 13.209.152.13, 3.38.24.84, 3.37.159.31, 3.34.25.104
ap-southeast-2 (2025 年 6 月 25 日以降)3.106.48.103, 52.62.168.142, 13.55.113.162, 3.24.61.148, 54.206.77.184, 54.79.253.17
us-west-2 (2025 年 6 月 24 日以降)52.42.100.5, 44.242.47.162, 52.40.44.52, 44.227.206.163, 44.246.241.23, 35.83.230.19

ClickHouse 設定の調整

ClickHouse Cloud は、ほとんどのユースケース向けに適切なデフォルト値を提供します。ただし、ClickPipes の宛先テーブル向けに一部の ClickHouse 設定を調整する必要がある場合は、ClickPipes 専用のロールを作成する方法が最も柔軟です。 手順:

  1. カスタムロール CREATE ROLE my_clickpipes_role SETTINGS ... を作成します。詳細は CREATE ROLE の構文を参照してください。
  2. ClickPipes を作成する際の Details and Settings ステップで、ClickPipes 用ユーザーにそのカスタムロールを付与します。
カスタムロールを割り当てる

ClickPipes の高度な設定を調整する

ClickPipes には、多くのユースケースをカバーする妥当なデフォルト設定が用意されています。ユースケースで追加の微調整が必要な場合は、次の設定を調整できます。

オブジェクトストレージ ClickPipes

SettingDefault valueDescription
Max insert bytes10GB1回の挿入バッチで処理するバイト数。
Max file count1001回の挿入バッチで処理するファイルの最大数。
Max threadsauto(3)ファイル処理に使用する同時実行スレッド数の上限
Max insert threads1ファイル処理に使用する同時実行挿入スレッド数の上限
Min insert block size bytes1GBテーブルに挿入可能なブロック内の最小サイズ(バイト数)
Max download threads4同時実行ダウンロードスレッド数の上限
Object storage polling interval30sClickHouse クラスターへデータを挿入する前の最大待機時間を設定します。
Parallel distributed insert select2parallel_distributed_insert_select 設定
Parallel view processingfalseアタッチされた VIEW への書き込みを逐次ではなく並行して行うかどうか。
Use cluster functiontrue複数ノード間でファイルを並行処理するかどうか。
ClickPipes の高度な設定

ストリーミング ClickPipes

設定デフォルト値説明
Streaming max insert wait time5sデータを ClickHouse クラスターに挿入する前の最大待機時間を設定します。

エラー レポート

ClickPipesは、インジェスト処理中に発生したエラーの種類に応じて、それらを 2 つの別個のテーブルに保存します。

レコードエラー

ClickPipes は、宛先テーブルとは別に、<destination_table_name>_clickpipes_error という接尾辞を持つテーブルを作成します。このテーブルには、不正なデータやスキーマの不一致によって発生したすべてのエラーが保存され、無効なメッセージ全体が含まれます。このテーブルには 7 日間の 有効期限 (TTL) が設定されています。

システムエラー

ClickPipe の動作に関連するエラー(ネットワークや接続などを含む)は、すべて system.clickpipes_log テーブルに保存されます。このテーブルには 7 日間の有効期限 (TTL) が設定されています。

ClickPipes が 15 分経過してもデータソースに接続できない場合、または 1 時間経過しても送信先に接続できない場合、ClickPipes インスタンスは停止し、(ClickHouse インスタンスが利用可能であれば)システムエラーテーブルに適切なメッセージを保存します。

FAQ

  • What is ClickPipes?

    ClickPipes は ClickHouse Cloud の機能で、ClickHouse サービスを外部データソース、特に Kafka に容易に接続できるようにします。ClickPipes for Kafka を利用すると、データを継続的に ClickHouse に取り込むことができ、リアルタイム分析で利用可能になります。

  • Does ClickPipes support data transformation?

    はい。ClickPipes は DDL 作成を公開することで、基本的なデータ変換をサポートします。さらに、ClickHouse Cloud サービス内の宛先テーブルにデータがロードされる際に、ClickHouse の materialized views 機能 を活用して、より高度な変換を適用できます。

  • Does using ClickPipes incur an additional cost?

    ClickPipes の課金は、Ingested Data と Compute の 2 つを基準として行われます。料金の詳細はこのページに記載されています。ClickPipes を実行すると、他の取り込みワークロードと同様に、宛先の ClickHouse Cloud サービス側で間接的なコンピュートおよびストレージコストが発生する可能性もあります。

  • Is there a way to handle errors or failures when using ClickPipes for Kafka?

    はい。ClickPipes for Kafka は、ネットワーク障害や接続障害など、Kafka からデータを読み取る際のあらゆる運用上の問題が発生した場合に、自動的にリトライを行います。不正なデータや無効なスキーマが検出された場合、ClickPipes はそのレコードを record_error テーブルに保存し、処理を継続します。