重複排除の戦略(CDC を使用)
Postgres から ClickHouse へレプリケートされる更新および削除は、ClickHouse のデータ保存構造とレプリケーション処理の仕組みにより、ClickHouse 内で行の重複を引き起こします。このページでは、なぜこの現象が起きるのか、そして重複を処理するために ClickHouse で利用できる戦略について説明します。
データはどのように複製されるか?
PostgreSQL logical decoding
ClickPipes は、Postgres で発生した変更を取り込むために Postgres Logical Decoding を使用します。Postgres の Logical Decoding プロセスにより、ClickPipes のようなクライアントは、人間が読みやすい形式、すなわち一連の INSERT、UPDATE、DELETE として変更を受け取ることができます。
ReplacingMergeTree
ClickPipes は ReplacingMergeTree エンジンを使用して、Postgres テーブルを ClickHouse にマッピングします。ClickHouse は追記専用ワークロードに最適化されており、頻繁な UPDATE の実行は推奨されません。ここで ReplacingMergeTree が特に威力を発揮します。
ReplacingMergeTree では、更新はその行の新しいバージョン(_peerdb_version)を持つ挿入として表現され、削除はさらに新しいバージョンの挿入で _peerdb_is_deleted が true に設定されたものとして表現されます。ReplacingMergeTree エンジンはバックグラウンドでデータの重複排除とマージを行い、指定された主キー(id)ごとに行の最新バージョンを保持することで、UPDATE および DELETE をバージョン付き挿入として効率的に処理できるようにします。
以下は、ClickPipes が ClickHouse 上にテーブルを作成するために実行する CREATE TABLE 文の例です。
図解例
以下の図では、PostgreSQL と ClickHouse 間で、ClickPipes を使ってテーブル users を同期する基本的な例を順を追って説明します。

ステップ 1 では、PostgreSQL 上の 2 行の初期スナップショットと、ClickPipes がそれら 2 行を ClickHouse に初回ロードする様子を示しています。ご覧のとおり、両方の行はそのままの形で ClickHouse にコピーされます。
ステップ 2 では、users テーブルに対して 3 つの操作が行われます。新しい行の挿入、既存行の更新、別の行の削除です。
ステップ 3 では、ClickPipes が INSERT、UPDATE、DELETE の各操作を、バージョン付きの挿入として ClickHouse にレプリケートする方法を示しています。UPDATE は ID 2 の行の新しいバージョンとして表現され、DELETE は _is_deleted を true に設定した ID 1 の新しいバージョンとして表現されます。このため、ClickHouse には PostgreSQL と比べて 3 行分多くの行が含まれることになります。
その結果、SELECT count(*) FROM users; のような単純なクエリを実行すると、ClickHouse と PostgreSQL で異なる結果が返される可能性があります。ClickHouse のマージに関するドキュメントによると、古いバージョンの行はマージ処理の過程で最終的には破棄されます。しかし、このマージがいつ実行されるかは予測できないため、実行されるまでの間、ClickHouse のクエリ結果が一時的に不整合になる可能性があります。
ClickHouse と PostgreSQL の両方で、クエリ結果を同一にするにはどうすればよいでしょうか?
FINAL キーワードを使った重複排除
ClickHouse のクエリでデータを重複排除する推奨方法は、FINAL 修飾子を使用することです。これにより、重複排除された行のみが返されます。
3 つの異なるクエリにどのように適用するかを見ていきます。
以下のクエリでは、削除された行を除外するために使用される WHERE 句に注目してください。
- 単純なカウントクエリ: 投稿数をカウントします。
これは、同期が正常に行われたかどうかを確認するために実行できる最も単純なクエリです。2 つのクエリは同じ件数になるはずです。
- JOIN を用いたシンプルな集計: 最も多くの
viewsを獲得した上位 10 人のユーザー。
単一テーブルに対する集計の例です。このテーブルに重複行があると、sum 関数の結果に大きな影響を与えます。
FINAL 設定
クエリ内の各テーブル名に FINAL 修飾子を追加する代わりに、FINAL 設定 を使用すると、クエリ内のすべてのテーブルに自動的に適用されます。
この設定は、クエリ単位またはセッション全体に対して適用できます。
ROW policy
冗長なフィルタ _peerdb_is_deleted = 0 を明示的に書かずに済むようにする簡単な方法は、ROW policy を使用することです。以下は、テーブル votes に対するすべてのクエリから削除済みの行を除外する ROW policy を作成する例です。
行ポリシーは、ユーザーおよびロールの一覧に対して適用されます。この例では、すべてのユーザーとロールに適用されています。必要に応じて、特定のユーザーやロールのみに適用されるように設定できます。
Postgres と同様にクエリする
分析用データセットを PostgreSQL から ClickHouse に移行する際には、多くの場合、データの扱いやクエリ実行の違いを考慮してアプリケーションのクエリを変更する必要があります。
このセクションでは、元のクエリを変更することなくデータの重複排除を行うための手法を解説します。
ビュー
ビュー は、クエリから FINAL キーワードを隠すための便利な方法です。ビュー自体はデータを一切保持せず、各アクセス時に単に別のテーブルから読み取ります。
以下は、ClickHouse のデータベース内の各テーブルに対して、FINAL キーワードと削除済みの行を除外するフィルタ条件を組み込んだビューを作成する例です。
次に、PostgreSQL で VIEW に対して実行するのと同じクエリを使って、これらの VIEW をクエリできます。
リフレッシャブルmaterialized view
別の方法として、リフレッシャブルmaterialized view を使用することもできます。これにより、行の重複排除を行うクエリ実行をスケジュールし、その結果を宛先テーブルに保存できます。スケジュールされたリフレッシュが行われるたびに、宛先テーブルは最新のクエリ結果で置き換えられます。
この方法の主な利点は、FINAL キーワードを使用するクエリがリフレッシュ時に一度だけ実行されるため、その後に宛先テーブルに対して実行するクエリでは FINAL を使用する必要がない点です。
一方の欠点として、宛先テーブル内のデータは、直近のリフレッシュ時点までしか最新にはなりません。とはいえ、多くのユースケースでは、数分から数時間程度のリフレッシュ間隔で十分な場合が少なくありません。
これで、テーブル deduplicated_posts に対して通常どおりクエリを実行できます。