データを保存するための外部ディスク
Data processed in ClickHouseは通常、ClickHouseサーバーが実行されているマシンのローカルファイルシステムに保存されます。これには大容量のディスクが必要で、コストがかかる場合があります。データをローカルに保存するのを避けるために、さまざまなストレージオプションがサポートされています:
- Amazon S3 オブジェクトストレージ。
- Azure Blob Storage。
- サポートされていません:Hadoop分散ファイルシステム(HDFS)
ClickHouseは、ページに記載されている外部ストレージオプションとは異なる外部テーブルエンジンもサポートしています。それらは、一般的なファイル形式(Parquetなど)で保存されたデータを読み取ることを可能にします。このページでは、ClickHouse MergeTree
ファミリまたはLog
ファミリのテーブルのストレージ構成について説明しています。
Amazon S3
ディスクに保存されたデータを操作するには、S3テーブルエンジンを使用します。- Azure Blob Storageに保存されたデータを操作するには、AzureBlobStorageテーブルエンジンを使用します。
- Hadoop分散ファイルシステム(サポートされていません)内のデータを操作するには、HDFSテーブルエンジンを使用します。
外部ストレージの構成
MergeTree
とLog
ファミリのテーブルエンジンは、それぞれs3
、azure_blob_storage
、hdfs
(サポートされていません)のタイプのディスクを使用してS3
、AzureBlobStorage
、HDFS
(サポートされていません)にデータを保存できます。
ディスク構成には以下が必要です:
s3
、azure_blob_storage
、hdfs
(サポートされていません)、local_blob_storage
、またはweb
のいずれかに等しいtype
セクション。- 特定の外部ストレージタイプの構成。
24.1のclickhouseバージョンから、新しい構成オプションを使用することが可能になりました。 以下を指定する必要があります:
object_storage
に等しいtype
s3
、azure_blob_storage
(または24.3
からは単にazure
)、hdfs
(サポートされていません)、local_blob_storage
(または24.3
からは単にlocal
)、web
のいずれかに等しいobject_storage_type
。
オプションでmetadata_type
を指定することができます(デフォルトはlocal
です)が、plain
、web
、および24.4
からはplain_rewritable
にも設定できます。
plain
メタデータタイプの使用は、plain storage sectionで説明されており、web
メタデータタイプはweb
オブジェクトストレージタイプとのみ使用できます。local
メタデータタイプはメタデータファイルをローカルに保存します(各メタデータファイルにはオブジェクトストレージ内のファイルへのマッピングとそれに関する追加のメタ情報が含まれます)。
例えば:
は以下の構成に等しいです(バージョン24.1
から):
以下の構成:
は次のように等しいです:
完全なストレージ構成の例は次のようになります:
バージョン24.1から、次のようにも見えることがあります:
すべてのMergeTree
テーブルのデフォルトオプションとして特定のストレージタイプを設定するには、構成ファイルに次のセクションを追加します:
特定のテーブルに対して特定のストレージポリシーを構成したい場合は、テーブル作成時に設定で定義できます:
storage_policy
の代わりにdisk
を使用することもできます。この場合、構成ファイルにstorage_policy
セクションを持つ必要はなく、disk
セクションだけで十分です。
動的構成
定義済みのディスクを構成ファイルに指定せずにストレージ構成を指定する可能性もありますが、CREATE
/ATTACH
クエリの設定で構成できます。
次の例クエリは、上記の動的ディスク構成に基づいており、URLに保存されたテーブルからデータをキャッシュするためにローカルディスクを使用する方法を示します。
以下の例は、外部ストレージにキャッシュを追加します。
下の設定に注意してください。type=web
のディスクはtype=cache
のディスクの中にネストされています。
例ではtype=web
を使用していますが、ローカルディスクを含む任意のディスクタイプを動的に構成できます。ローカルディスクには、custom_local_disks_base_directory
サーバー構成パラメータの内部に置くためにパス引数が必要です。これはデフォルトがないため、ローカルディスクを使用する場合はそれも設定してください。
構成ベースの構成とSQL定義の構成の組み合わせも可能です:
ここでweb
はサーバー構成ファイルのものです:
S3ストレージの使用
必要なパラメータ
パラメータ | 説明 |
---|---|
endpoint | path またはvirtual hosted スタイルのS3エンドポイントURLstyles。バケットとデータストレージのルートパスを含める必要があります。 |
access_key_id | 認証に使用されるS3アクセスキーID。 |
secret_access_key | 認証に使用されるS3シークレットアクセスキー。 |
オプションのパラメータ
パラメータ | 説明 | デフォルト値 |
---|---|---|
region | S3リージョン名。 | - |
support_batch_delete | バッチ削除のサポートを確認するかどうかを制御します。Google Cloud Storage(GCS)を使用する場合は、GCSはバッチ削除をサポートしていないため、false に設定します。 | true |
use_environment_credentials | 環境変数からAWS資格情報を読み取ります:AWS_ACCESS_KEY_ID 、AWS_SECRET_ACCESS_KEY 、AWS_SESSION_TOKEN が存在する場合。 | false |
use_insecure_imds_request | true の場合、Amazon EC2メタデータから資格情報を取得する際に不正secure IMDSリクエストを使用します。 | false |
expiration_window_seconds | 有効期限ベースの資格情報が期限切れたかどうかを確認するための猶予期間(秒単位)。 | 120 |
proxy | S3エンドポイントのプロキシ構成。proxy ブロック内の各uri 要素はプロキシURLを含む必要があります。 | - |
connect_timeout_ms | ミリ秒単位のソケット接続タイムアウト。 | 10000 (10秒) |
request_timeout_ms | ミリ秒単位のリクエストタイムアウト。 | 5000 (5秒) |
retry_attempts | 失敗したリクエストのための再試行回数。 | 10 |
single_read_retries | 読み取り中の接続の中断に対する再試行回数。 | 4 |
min_bytes_for_seek | 逐次読み取りの代わりにシーク操作に使用する最小バイト数。 | 1 MB |
metadata_path | S3メタデータファイルを保存するためのローカルファイルシステムパス。 | /var/lib/clickhouse/disks/<disk_name>/ |
skip_access_check | true の場合、起動時のディスクアクセスチェックをスキップします。 | false |
header | リクエストに指定されたHTTPヘッダーを追加します。複数回指定できます。 | - |
server_side_encryption_customer_key_base64 | SSE-C暗号化されたS3オブジェクトにアクセスするための必須ヘッダー。 | - |
server_side_encryption_kms_key_id | SSE-KMS暗号化されたS3オブジェクトにアクセスするための必須ヘッダー。空の文字列はAWS管理のS3キーを使用します。 | - |
server_side_encryption_kms_encryption_context | SSE-KMS用の暗号化コンテキストヘッダー(server_side_encryption_kms_key_id と共に使用)。 | - |
server_side_encryption_kms_bucket_key_enabled | SSE-KMS用のS3バケットキーを有効にします(server_side_encryption_kms_key_id と共に使用)。 | バケットレベル設定に一致 |
s3_max_put_rps | スロットリングを行う前の最大PUTリクエスト数/秒。 | 0 (無制限) |
s3_max_put_burst | RPS制限に達する前の最大同時PUTリクエスト数。 | s3_max_put_rps と同じ |
s3_max_get_rps | スロットリングを行う前の最大GETリクエスト数/秒。 | 0 (無制限) |
s3_max_get_burst | RPS制限に達する前の最大同時GETリクエスト数。 | s3_max_get_rps と同じ |
read_resource | スケジューリングに関する読み取りリクエストのリソース名。 | 空の文字列(無効) |
write_resource | スケジューリングに関する書き込みリクエストのリソース名。 | 空の文字列(無効) |
key_template | re2構文を使用してオブジェクトキー生成形式を定義します。storage_metadata_write_full_object_key フラグが必要です。endpoint のroot path とは互換性がありません。key_compatibility_prefix が必要です。 | - |
key_compatibility_prefix | key_template と共に必要です。古いメタデータバージョンを読み取るためのendpoint の以前のroot path を指定します。 | - |
read_only | ディスクからの読み取りのみを許可します。 | - |
Google Cloud Storage(GCS)もtype s3
を使用してサポートされています。詳しくは、GCSバックエンドMergeTreeをご覧ください。
プレインストレージの使用
22.10
では、書き込み専用ストレージを提供する新しいディスクタイプs3_plain
が導入されました。
その構成パラメータはs3
ディスクタイプと同じです。
s3
ディスクタイプとは異なり、データはそのまま保存されます。言い換えれば、
ランダムに生成されたblob名の代わりに通常のファイル名を使用し
(ClickHouseがローカルディスクにファイルを保存するのと同じ方法)、ローカルにメタデータを保存しません。例えば、これはs3
のデータから派生しています。
このディスクタイプを使用することで、静的なテーブルのバージョンを保持することができ、既存のデータに対してマージを実行することや新しいデータの挿入を許可しません。このディスクタイプの使用例は、BACKUP TABLE data TO Disk('plain_disk_name', 'backup_name')
を介してバックアップを作成することです。その後、RESTORE TABLE data AS data_restored FROM Disk('plain_disk_name', 'backup_name')
を行うことができます。または、ATTACH TABLE data (...) ENGINE = MergeTree() SETTINGS disk = 'plain_disk_name'
を使用することもできます。
構成:
24.1
以降、plain
メタデータタイプを使用して任意のオブジェクトストレージディスク(s3
、azure
、hdfs
(サポートされていません)、local
)を構成することが可能です。
構成:
S3プレイン書き換え可能ストレージの使用
新しいディスクタイプs3_plain_rewritable
が24.4
に導入されました。
s3_plain
ディスクタイプと同様に、メタデータファイルのための追加のストレージは必要ありません。代わりに、メタデータはS3に保存されます。
s3_plain
ディスクタイプとは異なり、s3_plain_rewritable
はマージの実行を許可し、INSERT
操作をサポートします。
Mutationsとテーブルのレプリケーションはサポートされていません。
このディスクタイプの使用例は、非レプリケートのMergeTree
テーブルです。s3
ディスクタイプは非レプリケートのMergeTree
テーブルに適していますが、テーブルのローカルメタデータが不要で、限定された操作セットを受け入れることができるのであれば、s3_plain_rewritable
ディスクタイプを選択することができます。たとえば、システムテーブルに便利かもしれません。
構成:
は次のように等しいです
24.5
以降、任意のオブジェクトストレージディスク(s3
、azure
、local
)をplain_rewritable
メタデータタイプを使用して構成することが可能です。
Azure Blob Storageの使用
MergeTree
ファミリのテーブルエンジンは、azure_blob_storage
タイプのディスクを使用してAzure Blob Storageにデータを保存できます。
構成マークアップ:
接続パラメータ
パラメータ | 説明 | デフォルト値 |
---|---|---|
storage_account_url (必須) | Azure Blob StorageアカウントURL。例:http://account.blob.core.windows.net または http://azurite1:10000/devstoreaccount1 。 | - |
container_name | 目標のコンテナ名。 | default-container |
container_already_exists | コンテナの作成動作を制御します: - false :新しいコンテナを作成- true :既存のコンテナに直接接続- unset:コンテナの存在を確認し、必要に応じて作成 | - |
認証パラメータ(ディスクはすべての利用可能な方法 と マネージドアイデンティティ資格情報を試みます):
パラメータ | 説明 |
---|---|
connection_string | 接続文字列を使用した認証用。 |
account_name | 共有キーを使用した認証のためのアカウント名(account_key と共に使用)。 |
account_key | 共有キーを使用した認証のためのアカウントキー(account_name と共に使用)。 |
制限パラメータ
パラメータ | 説明 |
---|---|
s3_max_single_part_upload_size | Blobストレージへのシングルブロックアップロードの最大サイズ。 |
min_bytes_for_seek | シーク可能領域の最小サイズ。 |
max_single_read_retries | Blobストレージからデータチャンクを読み取るための最大試行回数。 |
max_single_download_retries | Blobストレージから読み取り可能なバッファをダウンロードするための最大試行回数。 |
thread_pool_size | IDiskRemote インスタンス化のための最大スレッド数。 |
s3_max_inflight_parts_for_one_file | シングルオブジェクトの最大同時PUTリクエスト数。 |
その他のパラメータ
パラメータ | 説明 | デフォルト値 |
---|---|---|
metadata_path | Blobストレージのメタデータファイルを保存するためのローカルファイルシステムパス。 | /var/lib/clickhouse/disks/<disk_name>/ |
skip_access_check | true の場合、起動時のディスクアクセスチェックをスキップします。 | false |
read_resource | スケジューリングにおける読み取りリクエストのリソース名。 | 空の文字列(無効) |
write_resource | スケジューリングにおける書き込みリクエストのリソース名。 | 空の文字列(無効) |
metadata_keep_free_space_bytes | 予備のメタデータディスクスペースの量。 | - |
作業する構成の例については、統合テストディレクトリにあります(例:test_merge_tree_azure_blob_storageまたはtest_azure_blob_storage_zero_copy_replication)。
ゼロコピー複製は、ClickHouseバージョン22.8以降、デフォルトで無効になっています。この機能は本番使用には推奨されません。
HDFSストレージの使用(サポートされていません)
このサンプル構成では:
- ディスクのタイプは
hdfs
(サポートされていません) - データは
hdfs://hdfs1:9000/clickhouse/
にホストされています。
ちなみに、HDFSはサポートされていないため、使用中に問題が発生する可能性があります。問題が発生した場合は、修正を行うためにプルリクエストを自由に提出してください。
HDFSは隅々で正常に動作しない可能性があることに注意してください。
データ暗号化の使用
S3やHDFS(サポートされていません)の外部ディスク、またはローカルディスクに保存されたデータを暗号化することができます。暗号化モードをオンにするには、構成ファイルでencrypted
タイプのディスクを定義し、データが保存されるディスクを選択する必要があります。encrypted
ディスクは、書き込まれたすべてのファイルを自動で暗号化し、encrypted
ディスクからファイルを読み取ると自動的に復号化されます。そのため、通常のディスクと同様にencrypted
ディスクで作業ができます。
ディスク構成の例:
例えば、ClickHouseがあるテーブルからデータをstore/all_1_1_0/data.bin
ファイルにdisk1
に書き込むと、実際にはこのファイルは物理ディスクのパス/path1/store/all_1_1_0/data.bin
に書き込まれます。
同じファイルをdisk2
に書き込むと、実際には暗号化モードで物理ディスクのパス/path1/path2/store/all_1_1_0/data.bin
に書き込まれます。
必要なパラメータ
パラメータ | タイプ | 説明 |
---|---|---|
type | 文字列 | 暗号化ディスクを作成するにはencrypted に設定する必要があります。 |
disk | 文字列 | 基礎となるストレージに使用するディスクのタイプ。 |
key | Uint64 | 暗号化と復号化のためのキー。key_hex を使用して16進数で指定できます。複数のキーはid 属性を使用して指定できます。 |
オプションのパラメータ
パラメータ | タイプ | デフォルト | 説明 |
---|---|---|---|
path | 文字列 | ルートディレクトリ | データが保存されるディスク上の場所。 |
current_key_id | 文字列 | - | 暗号化に使用されるキーID。指定されたすべてのキーは復号化に使用できます。 |
algorithm | 列挙 | AES_128_CTR | 暗号化アルゴリズム。オプション: - AES_128_CTR (16バイトキー) - AES_192_CTR (24バイトキー) - AES_256_CTR (32バイトキー) |
ディスク構成の例:
ローカルキャッシュの使用
バージョン22.3以降、ストレージ構成においてディスク上のローカルキャッシュを設定することが可能です。バージョン22.3から22.7においては、s3
ディスクタイプのみでキャッシュがサポートされています。バージョン22.8以降は、S3、Azure、ローカル、暗号化など、任意のディスクタイプでキャッシュがサポートされています。バージョン23.5以降は、リモートディスクタイプ(S3、Azure、HDFS(未サポート))にのみキャッシュがサポートされています。キャッシュはLRU
キャッシュポリシーを使用します。
バージョン22.8以降の構成例:
バージョン22.8以前の構成例:
ファイルキャッシュ ディスク構成設定:
これらの設定は、ディスク構成セクションで定義する必要があります。
パラメーター | 型 | デフォルト | 説明 |
---|---|---|---|
path | 文字列 | - | 必須。キャッシュが保存されるディレクトリへのパス。 |
max_size | サイズ | - | 必須。バイトまたは読み取り可能な形式(例:10Gi )での最大キャッシュサイズ。制限に達した場合、LRUポリシーを使用してファイルが追放されます。ki 、Mi 、Gi フォーマットをサポートします(v22.10以降)。 |
cache_on_write_operations | ブール値 | false | INSERT クエリおよびバックグラウンドマージ用の書き込みスルーキャッシュを有効にします。クエリごとにenable_filesystem_cache_on_write_operations で上書きできます。 |
enable_filesystem_query_cache_limit | ブール値 | false | max_query_cache_size に基づいたクエリごとのキャッシュサイズ制限を有効にします。 |
enable_cache_hits_threshold | ブール値 | false | 有効にすると、データが何度も読み込まれてからキャッシュされます。 |
cache_hits_threshold | 整数値 | 0 | データがキャッシュされる前に必要な読み取り回数(enable_cache_hits_threshold が必要)。 |
enable_bypass_cache_with_threshold | ブール値 | false | 大きな読み取り範囲のためにキャッシュをスキップします。 |
bypass_cache_threshold | サイズ | 256Mi | キャッシュバイパスを引き起こす読み取り範囲のサイズ(enable_bypass_cache_with_threshold が必要)。 |
max_file_segment_size | サイズ | 8Mi | バイトまたは読み取り可能な形式での単一キャッシュファイルの最大サイズ。 |
max_elements | 整数値 | 10000000 | 最大キャッシュファイル数。 |
load_metadata_threads | 整数値 | 16 | 起動時にキャッシュメタデータを読み込むためのスレッド数。 |
注意: サイズ値は
ki
、Mi
、Gi
などの単位をサポートします(例:10Gi
)。
ファイルキャッシュ クエリ/プロファイル設定
設定 | 型 | デフォルト | 説明 |
---|---|---|---|
enable_filesystem_cache | ブール値 | true | クエリごとのキャッシュ利用を有効/無効にします。cache ディスクタイプを使用している場合でも有効です。 |
read_from_filesystem_cache_if_exists_otherwise_bypass_cache | ブール値 | false | 有効にすると、データが存在する場合にのみキャッシュを使用します。新しいデータはキャッシュされません。 |
enable_filesystem_cache_on_write_operations | ブール値 | false (Cloud: true ) | 書き込みスルーキャッシュを有効にします。キャッシュ構成でcache_on_write_operations が必要です。 |
enable_filesystem_cache_log | ブール値 | false | system.filesystem_cache_log への詳細なキャッシュ使用ロギングを有効にします。 |
max_query_cache_size | サイズ | false | クエリごとの最大キャッシュサイズ。キャッシュ構成でenable_filesystem_query_cache_limit が必要です。 |
skip_download_if_exceeds_query_cache | ブール値 | true | max_query_cache_size に達したときの挙動を制御します: - true : 新しいデータのダウンロードを停止 - false : 新しいデータのために古いデータを追放します。 |
キャッシュ構成設定とキャッシュクエリ設定は、最新のClickHouseバージョンに対応しており、以前のバージョンではサポートされていないものがあります。
キャッシュシステムテーブル
テーブル名 | 説明 | 要件 |
---|---|---|
system.filesystem_cache | ファイルシステムキャッシュの現在の状態を表示します。 | なし |
system.filesystem_cache_log | クエリごとの詳細なキャッシュ使用統計を提供します。 | enable_filesystem_cache_log = true が必要です。 |
キャッシュコマンド
SYSTEM DROP FILESYSTEM CACHE (<cache_name>) (ON CLUSTER)
-- ON CLUSTER
このコマンドは、<cache_name>
が提供されていない場合にのみサポートされています。
SHOW FILESYSTEM CACHES
サーバーに構成されたファイルシステムキャッシュのリストを表示します。
(バージョン22.8以下では、このコマンドはSHOW CACHES
と呼ばれています。)
DESCRIBE FILESYSTEM CACHE '<cache_name>'
特定のキャッシュのキャッシュ構成といくつかの一般的な統計を表示します。
キャッシュ名はSHOW FILESYSTEM CACHES
コマンドから取得できます。(バージョン22.8以下では、このコマンドはDESCRIBE CACHE
と呼ばれています。)
キャッシュの現在のメトリクス | キャッシュの非同期メトリクス | キャッシュプロファイルイベント |
---|---|---|
FilesystemCacheSize | FilesystemCacheBytes | CachedReadBufferReadFromSourceBytes 、CachedReadBufferReadFromCacheBytes |
FilesystemCacheElements | FilesystemCacheFiles | CachedReadBufferReadFromSourceMicroseconds 、CachedReadBufferReadFromCacheMicroseconds |
CachedReadBufferCacheWriteBytes 、CachedReadBufferCacheWriteMicroseconds | ||
CachedWriteBufferCacheWriteBytes 、CachedWriteBufferCacheWriteMicroseconds |
静的Webストレージの使用(読み取り専用)
これは読み取り専用のディスクです。そのデータは読み取られるだけで、決して変更されることはありません。新しいテーブルはATTACH TABLE
クエリを介してこのディスクにロードされます(以下の例を参照)。実際にはローカルディスクは使用されず、各SELECT
クエリは、必要なデータを取得するためのhttp
リクエストを生成します。テーブルデータのすべての変更は例外が発生し、次のタイプのクエリは許可されません:CREATE TABLE
、ALTER TABLE
、RENAME TABLE
、DETACH TABLE
およびTRUNCATE TABLE
。Webストレージは読み取り専用目的で使用できます。サンプルデータをホスティングするためや、データを移行するための使用例があります。ツールclickhouse-static-files-uploader
は、特定のテーブルのデータディレクトリを準備します(SELECT data_paths FROM system.tables WHERE name = 'table_name'
)。必要なテーブルごとにファイルのディレクトリを取得します。これらのファイルは、例えば、静的ファイルを持つWebサーバーにアップロードできます。この準備が完了したら、このテーブルを任意のClickHouseサーバーにDiskWeb
を介してロードできます。
このサンプル構成では:
- ディスクのタイプは
web
です。 - データは
http://nginx:80/test1/
でホストされています。 - ローカルストレージにキャッシュが使用されています。
ストレージはクエリ内で一時的に構成することもできます。ウェブデータセットが定期的に使用されることが期待されない場合、動的構成を参照し、構成ファイルの編集をスキップします。
サンプルデータセットはGitHubにホストされています。ウェブストレージに自身のテーブルを準備するには、ツールclickhouse-static-files-uploaderを参照してください。
このATTACH TABLE
クエリでは、提供されたUUID
がデータのディレクトリ名と一致し、エンドポイントはGitHubの生のコンテンツのURLです。
準備されたテストケースです。この構成をconfigに追加する必要があります:
その後、このクエリを実行します:
必須パラメーター
パラメーター | 説明 |
---|---|
type | web 。そうでない場合、ディスクは作成されません。 |
endpoint | path 形式のエンドポイントURL。エンドポイントURLはデータを保存するルートパスを含む必要があります。 |
オプションのパラメーター
パラメーター | 説明 | デフォルト値 |
---|---|---|
min_bytes_for_seek | シーケンシャルリードではなくシーク操作を使用するための最小バイト数 | 1 MB |
remote_fs_read_backoff_threashold | リモートディスクのデータを読む際の最大待機時間 | 10000 秒 |
remote_fs_read_backoff_max_tries | バックオフを伴ったリードを行う最大試行回数 | 5 |
クエリがDB:Exception Unreachable URL
という例外で失敗した場合、設定を調整することを検討してください:http_connection_timeout、http_receive_timeout、keep_alive_timeout。
アップロード用のファイルを取得するには、次のコマンドを実行します:
clickhouse static-files-disk-uploader --metadata-path <path> --output-dir <dir>
(--metadata-path
はクエリSELECT data_paths FROM system.tables WHERE name = 'table_name'
にあります)。
endpoint
からファイルを読み込む場合、それらは<endpoint>/store/
パスに読み込む必要がありますが、構成にはendpoint
のみを含める必要があります。
サーバーがテーブルを起動時に読み込んでいるときにURLがディスクロードできない場合、すべてのエラーがキャッチされます。この場合、エラーがあった場合はテーブルを再ロード(表示可能になる)するにはDETACH TABLE table_name
-> ATTACH TABLE table_name
を実行します。メタデータがサーバーの起動時に正常に読み込まれた場合、テーブルはすぐに利用可能です。
単一のHTTP読み込み中の最大再試行回数を制限するには、設定http_max_single_read_retriesを使用します。
ゼロコピー複製(生産用には準備が整っていない)
ゼロコピー複製は可能ですが、推奨されません。S3
およびHDFS
(未サポート)ディスクでのゼロコピー複製は、リモートに保存されたデータを複数のマシン間で同期する必要がある場合、メタデータ(データパーツへのパス)のみが複製され、データ自体は複製されません。
ゼロコピー複製は、ClickHouseバージョン22.8以降でデフォルトで無効になっています。この機能は生産用の使用には推奨されません。