Dictionary
ClickHouseの辞書は、さまざまな 内部および外部ソース からのデータのインメモリ key-value 表現を提供し、超低レイテンシのルックアップクエリを最適化します。
辞書は次のために便利です:
- 特に
JOIN
と共に使用することで、クエリのパフォーマンスを向上させる - データ取り込みプロセスを遅延させずに、取得したデータをその場で豊かにする

辞書を使ったJOINの高速化
辞書は特定のタイプの JOIN
を高速化するために使用できます: LEFT ANY
タイプ で、結合キーが基礎となるキーバリューストレージのキー属性に一致する必要があります。

この場合、ClickHouseは辞書を活用して Direct Join を実行できます。これはClickHouseの最も高速な結合アルゴリズムであり、右側のテーブルの基礎となる テーブルエンジン が低レイテンシのキーバリューリクエストをサポートしている場合に適用可能です。ClickHouseにはこれを提供する3つのテーブルエンジンがあります:Join(基本的には事前計算されたハッシュテーブル)、EmbeddedRocksDB および Dictionary。辞書ベースのアプローチについて説明しますが、メカニズムは3つのエンジンで同じです。
ダイレクトジョインアルゴリズムでは、右側のテーブルが辞書でバックアップされている必要があります。そのため、結合されるデータはすでにメモリ内に低レイテンシのキーバリューデータ構造の形で存在している必要があります。
例
Stack Overflowのデータセットを使用して、次の質問に答えましょう: Hacker NewsでSQLに関する最も物議を醸す投稿は何ですか?
物議を醸すとは、投稿が似たような数のアップ票とダウン票を持つ場合と定義します。この絶対的な差を計算し、値が0に近いほど物議を醸すものとします。投稿には最低10のアップ票とダウン票が必要であると仮定します - 票を投じられない投稿はあまり物議を醸しません。
データを正規化すると、現在このクエリは posts
テーブルと votes
テーブルを使用した JOIN
を必要とします:
JOIN
の右側に小さいデータセットを使用する:このクエリは、PostId
に対するフィルタリングが外部および内部両方のクエリで行われているため、必要以上に冗長に見えるかもしれません。これは、クエリ応答時間を速くするためのパフォーマンス最適化です。最適なパフォーマンスのためには、常にJOIN
の右側がより小さいセットであることを確認し、できるだけ小さくします。JOIN
のパフォーマンスを最適化し、利用可能なアルゴリズムを理解するためのヒントについては、このブログ記事のシリーズ をお勧めします。
このクエリは速いですが、良好なパフォーマンスを達成するために JOIN
を慎重に書く必要があります。理想的には、UpVote
と DownVote
のカウントを確認する前に、"SQL" を含む投稿にフィルターをかけたいところです。
辞書の適用
これらの概念を示すために、私たちは投票データのために辞書を使用します。辞書は通常、メモリ内に保持されます(ssd_cache は例外です)、ユーザーはデータのサイズに注意する必要があります。votes
テーブルのサイズを確認します:
データは辞書に未圧縮で保存されるため、すべてのカラムを辞書に保存する場合は、少なくとも4GBのメモリが必要です(実際には保存しません)。辞書はクラスタ全体にレプリケートされるため、このメモリ量はノードごとに予約する必要があります。
下記の例では、私たちの辞書のデータはClickHouseテーブルに由来しています。これは辞書の最も一般的なソースですが、ファイル、http、および Postgres を含むデータベースを含む多くのソースがサポートされています。辞書は自動的に更新されることができ、頻繁に変更される小さなデータセットが直接結合に利用できるようにする理想的な方法です。
私たちの辞書は、ルックアップが行われる主キーを必要とします。これは、トランザクショナルデータベースの主キーと概念的に同じで、一意である必要があります。上記のクエリでは、結合キー PostId
に対してルックアップが必要です。辞書は、その結果、votes
テーブルからの PostId
ごとのアップ票とダウン票の合計で埋め込まれるべきです。以下は、この辞書データを取得するためのクエリです:
辞書を作成するには、次のDDLが必要です - 上述のクエリを使用していることに注意してください:
セルフマネージドOSSでは、上記のコマンドはすべてのノードで実行する必要があります。ClickHouse Cloudでは、辞書は自動的にすべてのノードにレプリケートされます。上記は64GBのRAMを持つClickHouse Cloudノードで実行され、読み込みに36秒かかりました。
辞書によって消費されるメモリを確認するには:
特定の PostId
に対してアップ票とダウン票を取得するのは、単純な dictGet
関数を使用して実行できます。以下に、投稿 11227902
の値を取得します:
このクエリははるかにシンプルで、速度も2倍以上向上しています!これはさらに最適化でき、10以上のアップ票とダウン票を持つ投稿のみを辞書に読み込むこと及び事前計算された物議の値を保存することも可能です。
クエリ時の補強
辞書はクエリ時に値をルックアップするためにも使用できます。これらの値は結果に返されるか、集計に使用されます。ユーザーIDを場所にマッピングする辞書を作成しましょう:
この辞書を使用して投稿結果を補強できます:
上記のJOINの例と同様に、この辞書を使って、最も多くの投稿がどこから来ているかを効率的に特定することもできます:
インデックス時の補強
上記の例では、JOINを削除するためにクエリ時に辞書を使用しました。辞書は挿入時に行を補強するためにも使用できます。これは、補強値が変更されず、辞書を埋め込むために使用できる外部ソースに存在する場合に一般的に適切です。この場合、挿入時に行を補強することで、辞書へのクエリ時のルックアップを回避できます。
もしStack Overflowのユーザーの Location
が決して変更されないと仮定しましょう(実際には変更されますが) - 明確には users
テーブルの Location
列です。ポストテーブルに対してロケーション別の分析クエリを行いたいとします。ここには UserId
が含まれています。
辞書はユーザーIDからロケーションへのマッピングを提供し、users
テーブルでバックアップされます:
Id < 0
のユーザーを省略し、Hashed
辞書タイプを使用できるようにします。Id < 0
のユーザーはシステムユーザーです。
この辞書を投稿テーブルの挿入時に利用するには、スキーマを変更する必要があります:
上記の例では、Location
が MATERIALIZED
カラムとして宣言されています。これは、値を INSERT
クエリの一部として提供でき、常に計算されることを意味します。
ClickHouseは
DEFAULT
カラム もサポートしています(値は提供されない場合に挿入または計算できます)。
テーブルを埋めるために、通常の INSERT INTO SELECT
をS3から使用できます:
今や、最も多くの投稿がどこから来ているのかを得ることができます:
高度な辞書トピック
辞書の LAYOUT
の選択
LAYOUT
句は、辞書の内部データ構造を制御します。いくつかのオプションが存在し、こちらで文書化されています。正しいレイアウトを選択するためのヒントはこちらにあります。
辞書の更新
辞書に対して LIFETIME
を MIN 600 MAX 900
と指定しました。LIFETIMEは、辞書の更新間隔で、ここでの値は600秒から900秒の間のランダムな間隔での定期的な再読み込みを引き起こします。このランダムな間隔は、大規模なサーバーで更新する際に辞書ソースへの負荷を分散するために必要です。更新中は、古いバージョンの辞書もクエリ可能で、初期読み込みのみがクエリをブロックします。(LIFETIME(0))
を設定すると、辞書の更新が防止されます。
ClickHouseやPostgresなどのデータベースソースでは、クエリの応答が実際に変わった場合にのみ辞書を更新するクエリを設定できます(定期的な間隔ではなく)。詳細はこちらで確認できます。
その他の辞書タイプ
ClickHouseは、階層的、多角形、および 正規表現 辞書もサポートしています。