字典是一种映射(key -> attributes),便于用于各种类型的参考列表。
ClickHouse 支持在查询中使用用于操作字典的特殊函数。与对参考表执行 JOIN 相比,配合函数使用字典更简单且更高效。
ClickHouse 支持:
Tutorial
如果您刚开始在 ClickHouse 中使用字典,我们有一个涵盖该主题的教程。请查看这里 。
您可以从各种数据源添加自己的字典。字典的数据源可以是 ClickHouse 表、本地文本或可执行文件、HTTP(s) 资源,或其他 DBMS。更多信息,参见“Dictionary Sources ”。
ClickHouse:
将字典全部或部分存储在 RAM 中。
周期性更新字典并动态加载缺失的值。换句话说,字典可以被动态加载。
允许使用 xml 文件或 DDL 查询 创建字典。
字典的配置可以位于一个或多个 xml 文件中。配置路径在 dictionaries_config 参数中指定。
根据 dictionaries_lazy_load 设置,字典可以在服务器启动时加载,或在首次使用时加载。
dictionaries 系统表包含服务器上已配置字典的信息。对于每个字典,您可以在其中找到:
字典的状态。
配置参数。
指标,例如为字典分配的 RAM 大小,或自字典成功加载以来的查询次数。
提示
如果你在 ClickHouse Cloud 中使用字典,请使用 DDL 查询方式来创建字典,并使用用户 default 创建字典。
另外,请在 Cloud Compatibility 指南 中核对受支持的字典数据源列表。
使用 DDL 查询创建字典
可以使用 DDL 查询 来创建字典,这是推荐的方法,因为通过 DDL 创建的字典具有以下优点:
服务器配置文件中不会添加额外的记录。
字典可以像表或视图一样,作为一等公民进行操作。
可以直接读取数据,使用熟悉的 SELECT 语句,而不是字典表函数。请注意,当通过 SELECT 语句直接访问字典时,已缓存的字典只会返回缓存的数据,而未缓存的字典会返回其存储的全部数据。
字典可以轻松重命名。
使用配置文件创建字典
Not supported in ClickHouse Cloud
注意
使用配置文件创建字典不适用于 ClickHouse Cloud。请使用 DDL(见上文),并以 default 用户身份创建字典。
字典配置文件具有以下格式:
<clickhouse>
<comment>可选元素,可包含任意内容。ClickHouse 服务器将忽略此元素。</comment>
<!--可选元素。包含替换变量的文件名-->
<include_from>/etc/metrika.xml</include_from>
<dictionary>
<!-- 字典配置。 -->
<!-- 配置文件中可以包含任意数量的字典配置段。 -->
</dictionary>
</clickhouse>
你可以在同一个文件中配置 任意数量的字典。
注意
你可以通过在 SELECT 查询中以字典形式描述一个小型字典来转换其值(参见 transform 函数)。该功能与字典机制本身无关。
配置字典
提示
如果你在 ClickHouse Cloud 中使用字典,请使用 DDL 查询方式来创建字典,并使用用户 default 创建字典。
另外,请在 Cloud Compatibility 指南 中核对受支持的字典数据源列表。
如果使用 XML 文件来配置字典,则字典配置具有如下结构:
<dictionary>
<name>dict_name</name>
<structure>
<!-- 复合键配置 -->
</structure>
<source>
<!-- 数据源配置 -->
</source>
<layout>
<!-- 内存布局配置 -->
</layout>
<lifetime>
<!-- 字典内存生命周期 -->
</lifetime>
</dictionary>
其对应的 DDL 查询 语句结构如下:
CREATE DICTIONARY dict_name
(
... -- 属性
)
PRIMARY KEY ... -- 复合主键或单主键配置
SOURCE(...) -- 数据源配置
LAYOUT(...) -- 内存布局配置
LIFETIME(...) -- 字典在内存中的存活时间
在内存中存储字典
有多种方式可以在内存中存储字典。
我们推荐使用 flat 、hashed 和 complex_key_hashed 类型,它们可以提供最佳的处理速度。
不推荐使用缓存类型,因为其性能可能较差,并且难以选取最优参数。更多内容请参见 cache 部分。
有几种方法可以提升字典性能:
在 GROUP BY 之后调用用于处理字典的函数。
将要提取的属性标记为单射。若不同键对应不同的属性值,则该属性称为单射。因此,当 GROUP BY 中使用按键获取属性值的函数时,该函数会自动从 GROUP BY 中提取出来单独执行。
ClickHouse 会针对与字典相关的错误抛出异常。例如:
无法加载正在访问的字典。
查询 cached 字典时出错。
可以在 system.dictionaries 表中查看字典列表及其状态。
提示
如果你在 ClickHouse Cloud 中使用字典,请使用 DDL 查询方式来创建字典,并使用用户 default 创建字典。
另外,请在 Cloud Compatibility 指南 中核对受支持的字典数据源列表。
配置如下所示:
<clickhouse>
<dictionary>
...
<layout>
<layout_type>
<!-- 布局设置 -->
</layout_type>
</layout>
...
</dictionary>
</clickhouse>
对应的 DDL 查询语句 :
CREATE DICTIONARY (...)
...
LAYOUT(LAYOUT_TYPE(param value)) -- 布局设置
...
在布局名称中不含单词 complex-key* 的字典,其键类型为 UInt64 ;带有 complex-key* 的字典则使用复合键(复杂键,可由任意类型组成)。
在 XML 字典中,类型为 UInt64 的键通过 <id> 标签定义。
配置示例(名为 key_column 的列类型为 UInt64):
...
<structure>
<id>
<name>key_column</name>
</id>
...
具有复合 complex 键的 XML 字典通过 <key> 标签定义。
复合键的配置示例(键只有一个元素,该元素的类型为 String ):
...
<structure>
<key>
<attribute>
<name>country_code</name>
<type>String</type>
</attribute>
</key>
...
在内存中存储字典的方式
在内存中存储字典数据的不同方法,在 CPU 和 RAM 使用上各有权衡。字典相关博客文章 中 Choosing a Layout 段落给出的决策树,是选择使用哪种布局的良好起点。
flat
字典以扁平数组的形式完全存储在内存中。字典会使用多少内存?该数量与最大键值的大小(所占空间)成正比。
字典键的类型为 UInt64 ,值的大小受 max_array_size 限制(默认值为 500,000)。如果在创建字典时发现更大的键值,ClickHouse 会抛出异常并且不会创建该字典。字典扁平数组的初始大小由 initial_array_size 设置控制(默认值为 1024)。
支持所有类型的源。在更新时,会将数据(无论来自文件还是表)完整读取一遍。
此方法在所有可用的字典存储方法中提供了最佳性能。
配置示例:
<layout>
<flat>
<initial_array_size>50000</initial_array_size>
<max_array_size>5000000</max_array_size>
</flat>
</layout>
或
LAYOUT(FLAT(INITIAL_ARRAY_SIZE 50000 MAX_ARRAY_SIZE 5000000))
hashed
字典以哈希表的形式完全存储在内存中。字典可以包含任意数量、具有任意标识符的元素。实际使用中,键的数量可以达到数千万级。
字典键的类型为 UInt64 。
支持所有类型的数据源。在更新时,会整体读取数据(来自文件或表)。
配置示例:
<layout>
<hashed />
</layout>
或
配置示例:
<layout>
<hashed>
<!-- 如果分片数大于 1(默认为 `1`),字典将并行加载数据,
适用于单个字典包含大量元素的场景。 -->
<shards>10</shards>
<!-- 并行队列中块的积压队列大小。
由于并行加载的瓶颈在于重新哈希,为避免线程执行重新哈希时发生阻塞,
需要设置一定的积压队列。
10000 是内存占用与速度之间的良好平衡点。
即使对于 10e10 个元素,也能处理全部负载而不会出现饥饿现象。 -->
<shard_load_queue_backlog>10000</shard_load_queue_backlog>
<!-- 哈希表的最大负载因子。值越大,内存利用率越高(浪费的内存越少),
但读取性能可能会下降。
有效值:[0.5, 0.99]
默认值:0.5 -->
<max_load_factor>0.5</max_load_factor>
</hashed>
</layout>
或
LAYOUT(HASHED([SHARDS 1] [SHARD_LOAD_QUEUE_BACKLOG 10000] [MAX_LOAD_FACTOR 0.5]))
sparse_hashed
与 hashed 类似,但更节省内存,以更高的 CPU 使用率为代价。
字典键的类型为 UInt64 。
配置示例:
<layout>
<sparse_hashed>
<!-- <shards>1</shards> -->
<!-- <shard_load_queue_backlog>10000</shard_load_queue_backlog> -->
<!-- <max_load_factor>0.5</max_load_factor> -->
</sparse_hashed>
</layout>
或
LAYOUT(SPARSE_HASHED([SHARDS 1] [SHARD_LOAD_QUEUE_BACKLOG 10000] [MAX_LOAD_FACTOR 0.5]))
对于此类字典也可以使用 shards,同理,这对 sparse_hashed 比对 hashed 更为重要,因为 sparse_hashed 更慢。
complex_key_hashed
这种存储类型用于具有复合键 的场景,其工作方式类似于 hashed。
配置示例:
<layout>
<complex_key_hashed>
<!-- <shards>1</shards> -->
<!-- <shard_load_queue_backlog>10000</shard_load_queue_backlog> -->
<!-- <max_load_factor>0.5</max_load_factor> -->
</complex_key_hashed>
</layout>
或
LAYOUT(COMPLEX_KEY_HASHED([SHARDS 1] [SHARD_LOAD_QUEUE_BACKLOG 10000] [MAX_LOAD_FACTOR 0.5]))
complex_key_sparse_hashed
这种存储类型用于复合键 。与 sparse_hashed 类似。
配置示例:
<layout>
<complex_key_sparse_hashed>
<!-- <shards>1</shards> -->
<!-- <shard_load_queue_backlog>10000</shard_load_queue_backlog> -->
<!-- <max_load_factor>0.5</max_load_factor> -->
</complex_key_sparse_hashed>
</layout>
或者
LAYOUT(COMPLEX_KEY_SPARSE_HASHED([SHARDS 1] [SHARD_LOAD_QUEUE_BACKLOG 10000] [MAX_LOAD_FACTOR 0.5]))
hashed_array
字典完全存储在内存中。每个属性都存储在一个数组中。键属性以哈希表的形式存储,其中值是属性数组中的索引。字典可以包含任意数量、具有任意标识符的元素。在实际使用中,键的数量可以达到数千万级。
字典键的类型为 UInt64 。
支持所有类型的数据源。在更新时,会将数据(来自文件或表)整体读取到内存中。
配置示例:
<layout>
<hashed_array>
</hashed_array>
</layout>
或
LAYOUT(HASHED_ARRAY([SHARDS 1]))
complex_key_hashed_array
此类存储用于复合键 ,类似于hashed_array 。
配置示例:
<layout>
<complex_key_hashed_array />
</layout>
或者
LAYOUT(COMPLEX_KEY_HASHED_ARRAY([SHARDS 1]))
range_hashed
字典以哈希表的形式存储在内存中,包含一个有序的区间数组及其对应的值。
这种存储方式与 hashed 相同,除了键以外,还允许使用日期/时间(任意数值类型)区间。
示例:表中包含针对每个广告主的折扣,格式如下:
┌─advertiser_id─┬─discount_start_date─┬─discount_end_date─┬─amount─┐
│ 123 │ 2015-01-16 │ 2015-01-31 │ 0.25 │
│ 123 │ 2015-01-01 │ 2015-01-15 │ 0.15 │
│ 456 │ 2015-01-01 │ 2015-01-15 │ 0.05 │
└───────────────┴─────────────────────┴───────────────────┴────────┘
要基于日期范围进行采样,请在结构 中定义 range_min 和 range_max 元素。这些元素必须包含 name 和 type(如果未指定 type,将使用默认类型 Date)。type 可以是任意数值类型(Date / DateTime / UInt64 / Int32 / 其他)。
注意
range_min 和 range_max 的值应在 Int64 类型的取值范围内。
示例:
<layout>
<range_hashed>
<!-- 重叠范围的处理策略(min/max)。默认值:min(返回 range_min 到 range_max 值最小的匹配范围) -->
<range_lookup_strategy>min</range_lookup_strategy>
</range_hashed>
</layout>
<structure>
<id>
<name>advertiser_id</name>
</id>
<range_min>
<name>discount_start_date</name>
<type>Date</type>
</range_min>
<range_max>
<name>discount_end_date</name>
<type>Date</type>
</range_max>
...
或
CREATE DICTIONARY discounts_dict (
advertiser_id UInt64,
discount_start_date Date,
discount_end_date Date,
amount Float64
)
PRIMARY KEY id
SOURCE(CLICKHOUSE(TABLE 'discounts'))
LIFETIME(MIN 1 MAX 1000)
LAYOUT(RANGE_HASHED(range_lookup_strategy 'max'))
RANGE(MIN discount_start_date MAX discount_end_date)
要使用这些字典,需要向 dictGet 函数额外传入一个参数,用于指定区间:
dictGet('dict_name', 'attr_name', id, date)
查询示例:
SELECT dictGet('discounts_dict', 'amount', 1, '2022-10-20'::Date);
此函数返回指定 id 在包含传入日期的日期范围内的值。
算法细节:
如果未找到 id 或者为该 id 未找到范围,则返回该属性类型的默认值。
如果存在重叠范围且 range_lookup_strategy=min,则返回一个匹配范围,其 range_min 最小;如果找到多个范围,则返回其中 range_max 最小的范围;如果仍然找到多个范围(多个范围具有相同的 range_min 和 range_max),则从中随机返回一个范围。
如果存在重叠范围且 range_lookup_strategy=max,则返回一个匹配范围,其 range_min 最大;如果找到多个范围,则返回其中 range_max 最大的范围;如果仍然找到多个范围(多个范围具有相同的 range_min 和 range_max),则从中随机返回一个范围。
如果 range_max 为 NULL,则该范围在上界为开区间。NULL 被视为可能的最大值。对于 range_min,可以使用 1970-01-01 或 0 (-MAX_INT) 作为无下界的开区间值。
配置示例:
<clickhouse>
<dictionary>
...
<layout>
<range_hashed />
</layout>
<structure>
<id>
<name>Abcdef</name>
</id>
<range_min>
<name>StartTimeStamp</name>
<type>UInt64</type>
</range_min>
<range_max>
<name>EndTimeStamp</name>
<type>UInt64</type>
</range_max>
<attribute>
<name>XXXType</name>
<type>String</type>
<null_value />
</attribute>
</structure>
</dictionary>
</clickhouse>
或
CREATE DICTIONARY somedict(
Abcdef UInt64,
StartTimeStamp UInt64,
EndTimeStamp UInt64,
XXXType String DEFAULT ''
)
PRIMARY KEY Abcdef
RANGE(MIN StartTimeStamp MAX EndTimeStamp)
包含重叠区间和开区间的配置示例:
CREATE TABLE discounts
(
advertiser_id UInt64,
discount_start_date Date,
discount_end_date Nullable(Date),
amount Float64
)
ENGINE = Memory;
INSERT INTO discounts VALUES (1, '2015-01-01', Null, 0.1);
INSERT INTO discounts VALUES (1, '2015-01-15', Null, 0.2);
INSERT INTO discounts VALUES (2, '2015-01-01', '2015-01-15', 0.3);
INSERT INTO discounts VALUES (2, '2015-01-04', '2015-01-10', 0.4);
INSERT INTO discounts VALUES (3, '1970-01-01', '2015-01-15', 0.5);
INSERT INTO discounts VALUES (3, '1970-01-01', '2015-01-10', 0.6);
SELECT * FROM discounts ORDER BY advertiser_id, discount_start_date;
┌─advertiser_id─┬─discount_start_date─┬─discount_end_date─┬─amount─┐
│ 1 │ 2015-01-01 │ ᴺᵁᴸᴸ │ 0.1 │
│ 1 │ 2015-01-15 │ ᴺᵁᴸᴸ │ 0.2 │
│ 2 │ 2015-01-01 │ 2015-01-15 │ 0.3 │
│ 2 │ 2015-01-04 │ 2015-01-10 │ 0.4 │
│ 3 │ 1970-01-01 │ 2015-01-15 │ 0.5 │
│ 3 │ 1970-01-01 │ 2015-01-10 │ 0.6 │
└───────────────┴─────────────────────┴───────────────────┴────────┘
-- RANGE_LOOKUP_STRATEGY 'max'
CREATE DICTIONARY discounts_dict
(
advertiser_id UInt64,
discount_start_date Date,
discount_end_date Nullable(Date),
amount Float64
)
PRIMARY KEY advertiser_id
SOURCE(CLICKHOUSE(TABLE discounts))
LIFETIME(MIN 600 MAX 900)
LAYOUT(RANGE_HASHED(RANGE_LOOKUP_STRATEGY 'max'))
RANGE(MIN discount_start_date MAX discount_end_date);
select dictGet('discounts_dict', 'amount', 1, toDate('2015-01-14')) res;
┌─res─┐
│ 0.1 │ -- 仅有一个范围匹配:2015-01-01 - Null
└─────┘
select dictGet('discounts_dict', 'amount', 1, toDate('2015-01-16')) res;
┌─res─┐
│ 0.2 │ -- 两个范围匹配,range_min 2015-01-15 (0.2) 大于 2015-01-01 (0.1)
└─────┘
select dictGet('discounts_dict', 'amount', 2, toDate('2015-01-06')) res;
┌─res─┐
│ 0.4 │ -- 两个范围匹配,range_min 2015-01-04 (0.4) 大于 2015-01-01 (0.3)
└─────┘
select dictGet('discounts_dict', 'amount', 3, toDate('2015-01-01')) res;
┌─res─┐
│ 0.5 │ -- 两个范围匹配,range_min 相等,range_max 2015-01-15 (0.5) 大于 2015-01-10 (0.6)
└─────┘
DROP DICTIONARY discounts_dict;
-- RANGE_LOOKUP_STRATEGY 'min'
CREATE DICTIONARY discounts_dict
(
advertiser_id UInt64,
discount_start_date Date,
discount_end_date Nullable(Date),
amount Float64
)
PRIMARY KEY advertiser_id
SOURCE(CLICKHOUSE(TABLE discounts))
LIFETIME(MIN 600 MAX 900)
LAYOUT(RANGE_HASHED(RANGE_LOOKUP_STRATEGY 'min'))
RANGE(MIN discount_start_date MAX discount_end_date);
select dictGet('discounts_dict', 'amount', 1, toDate('2015-01-14')) res;
┌─res─┐
│ 0.1 │ -- 仅有一个范围匹配:2015-01-01 - Null
└─────┘
select dictGet('discounts_dict', 'amount', 1, toDate('2015-01-16')) res;
┌─res─┐
│ 0.1 │ -- 两个范围匹配,range_min 2015-01-01 (0.1) 小于 2015-01-15 (0.2)
└─────┘
select dictGet('discounts_dict', 'amount', 2, toDate('2015-01-06')) res;
┌─res─┐
│ 0.3 │ -- 两个范围匹配,range_min 2015-01-01 (0.3) 小于 2015-01-04 (0.4)
└─────┘
select dictGet('discounts_dict', 'amount', 3, toDate('2015-01-01')) res;
┌─res─┐
│ 0.6 │ -- 两个范围匹配,range_min 相等,range_max 2015-01-10 (0.6) 小于 2015-01-15 (0.5)
└─────┘
complex_key_range_hashed
字典以哈希表的形式存储在内存中,包含一个有序的区间数组及其对应的值(参见 range_hashed )。这种存储类型适用于复合键 。
配置示例:
CREATE DICTIONARY range_dictionary
(
CountryID UInt64,
CountryKey String,
StartDate Date,
EndDate Date,
Tax Float64 DEFAULT 0.2
)
PRIMARY KEY CountryID, CountryKey
SOURCE(CLICKHOUSE(TABLE 'date_table'))
LIFETIME(MIN 1 MAX 1000)
LAYOUT(COMPLEX_KEY_RANGE_HASHED())
RANGE(MIN StartDate MAX EndDate);
cache
字典存储在一个具有固定数量单元格的缓存中。这些单元格中保存着经常使用的元素。
字典键的类型为 UInt64 。
在查找字典时,会先搜索缓存。对于每个数据块,所有在缓存中未找到或已过期的键都会通过 SELECT attrs... FROM db.table WHERE id IN (k1, k2, ...) 向源请求。接收到的数据会写入缓存。
如果在字典中未找到某个键,则会创建更新缓存的任务并将其加入更新队列。可以通过 max_update_queue_size、update_queue_push_timeout_milliseconds、query_wait_timeout_milliseconds、max_threads_for_updates 这些设置来控制更新队列的属性。
对于 cache 字典,可以为缓存中的数据设置过期生命周期 。如果自数据加载到某个单元格后经过的时间超过了 lifetime,则该单元格中的值将不再使用,对应键变为过期状态。下次需要使用该键时会重新从源请求。可以通过设置 allow_read_expired_keys 来配置此行为。
这是所有字典存储方式中效率最低的一种。缓存性能在很大程度上依赖于正确的配置和具体使用场景。只有当命中率足够高时(建议 99% 及以上),cache 类型字典的表现才会较好。可以在 system.dictionaries 表中查看平均命中率。
如果将设置 allow_read_expired_keys 设为 1(默认值为 0),则字典可以支持异步更新。如果客户端请求的所有键都在缓存中,但其中部分已过期,则字典会将这些过期键返回给客户端,并同时从源异步请求更新它们。
为提升缓存性能,请使用带有 LIMIT 的子查询,并在外部调用使用该字典的函数。
支持所有类型的源。
设置示例:
<layout>
<cache>
<!-- 缓存大小,以单元格数量计。向上取整为2的幂。 -->
<size_in_cells>1000000000</size_in_cells>
<!-- 允许读取已过期的键。 -->
<allow_read_expired_keys>0</allow_read_expired_keys>
<!-- 更新队列的最大长度。 -->
<max_update_queue_size>100000</max_update_queue_size>
<!-- 将更新任务推入队列的最大超时时间(毫秒)。 -->
<update_queue_push_timeout_milliseconds>10</update_queue_push_timeout_milliseconds>
<!-- 等待更新任务完成的最大超时时间(毫秒)。 -->
<query_wait_timeout_milliseconds>60000</query_wait_timeout_milliseconds>
<!-- 缓存字典更新的最大线程数。 -->
<max_threads_for_updates>4</max_threads_for_updates>
</cache>
</layout>
或
LAYOUT(CACHE(SIZE_IN_CELLS 1000000000))
设置足够大的缓存容量。你需要通过试验来选择合适的单元格数量:
先设置一个数值。
运行查询,直到缓存被完全占满。
通过 system.dictionaries 表查看内存消耗情况。
根据需要增加或减少单元格数量,直到达到目标内存消耗。
注意
不要使用 ClickHouse 作为数据源,因为它在处理包含随机读取的查询时比较慢。
complex_key_cache
此种存储类型用于复合键 ,类似于 cache。
ssd_cache
类似于 cache,但将数据存储在 SSD 上,并将索引存储在 RAM 中。所有与更新队列相关的缓存字典设置也同样适用于 SSD 缓存字典。
字典键的类型为 UInt64 。
<layout>
<ssd_cache>
<!-- 基本读取块的大小(以字节为单位)。建议设置为与 SSD 页大小相等。 -->
<block_size>4096</block_size>
<!-- 缓存文件的最大大小(以字节为单位)。 -->
<file_size>16777216</file_size>
<!-- 用于从 SSD 读取元素的 RAM 缓冲区大小(以字节为单位)。 -->
<read_buffer_size>131072</read_buffer_size>
<!-- 用于在刷新到 SSD 之前聚合元素的 RAM 缓冲区大小(以字节为单位)。 -->
<write_buffer_size>1048576</write_buffer_size>
<!-- 缓存文件的存储路径。 -->
<path>/var/lib/clickhouse/user_files/test_dict</path>
</ssd_cache>
</layout>
或
LAYOUT(SSD_CACHE(BLOCK_SIZE 4096 FILE_SIZE 16777216 READ_BUFFER_SIZE 1048576
PATH '/var/lib/clickhouse/user_files/test_dict'))
complex_key_ssd_cache
这种存储类型用于复合键 ,与 ssd_cache 类似。
direct
字典本身不驻留在内存中,在处理请求时会直接访问数据源。
字典键的类型为 UInt64 。
除本地文件外,支持所有类型的源 。
配置示例:
<layout>
<direct />
</layout>
或
complex_key_direct
这种存储类型用于复合 keys ,类似于 direct。
ip_trie
此字典专为通过网络前缀查找 IP 地址而设计。它以 CIDR 表示法存储 IP 范围,并可快速确定给定 IP 所属的前缀(例如子网或 ASN 段),非常适合用于基于 IP 的检索,如地理定位或网络分类。
VIDEO
示例
假设我们在 ClickHouse 中有一张表,包含我们的 IP 前缀及其映射关系:
CREATE TABLE my_ip_addresses (
prefix String,
asn UInt32,
cca2 String
)
ENGINE = MergeTree
PRIMARY KEY prefix;
INSERT INTO my_ip_addresses VALUES
('202.79.32.0/20', 17501, 'NP'),
('2620:0:870::/48', 3856, 'US'),
('2a02:6b8:1::/48', 13238, 'RU'),
('2001:db8::/32', 65536, 'ZZ')
;
让我们为这张表定义一个 ip_trie 字典。ip_trie 布局需要一个复合键:
<structure>
<key>
<attribute>
<name>prefix</name>
<type>String</type>
</attribute>
</key>
<attribute>
<name>asn</name>
<type>UInt32</type>
<null_value />
</attribute>
<attribute>
<name>cca2</name>
<type>String</type>
<null_value>??</null_value>
</attribute>
...
</structure>
<layout>
<ip_trie>
<!-- 可通过 dictGetString 检索键属性 `prefix`。 -->
<!-- 此选项将增加内存使用量。 -->
<access_to_key_from_attributes>true</access_to_key_from_attributes>
</ip_trie>
</layout>
或者
CREATE DICTIONARY my_ip_trie_dictionary (
prefix String,
asn UInt32,
cca2 String DEFAULT '??'
)
PRIMARY KEY prefix
SOURCE(CLICKHOUSE(TABLE 'my_ip_addresses'))
LAYOUT(IP_TRIE)
LIFETIME(3600);
该键必须只有一个 String 类型的单个属性,其中包含一个允许的 IP 前缀。其他属性类型暂不支持。
语法如下:
dictGetT('dict_name', 'attr_name', ip)
该函数的参数可以是用于 IPv4 的 UInt32,或用于 IPv6 的 FixedString(16)。例如:
SELECT dictGet('my_ip_trie_dictionary', 'cca2', toIPv4('202.79.32.10')) AS result;
┌─result─┐
│ NP │
└────────┘
SELECT dictGet('my_ip_trie_dictionary', 'asn', IPv6StringToNum('2001:db8::1')) AS result;
┌─result─┐
│ 65536 │
└────────┘
SELECT dictGet('my_ip_trie_dictionary', ('asn', 'cca2'), IPv6StringToNum('2001:db8::1')) AS result;
┌─result───────┐
│ (65536,'ZZ') │
└──────────────┘
目前尚不支持其他类型。该函数会返回与此 IP 地址对应前缀相关联的属性。如果存在重叠前缀,则返回最具体的那个。
数据必须完全载入 RAM。
使用 LIFETIME 刷新字典数据
ClickHouse 根据 LIFETIME 标签(以秒为单位定义)定期更新字典。对于完全下载的字典,LIFETIME 是更新间隔;对于缓存字典,LIFETIME 是失效间隔。
在更新期间,仍可查询字典的旧版本。字典更新(首次加载时除外)不会阻塞查询。如果更新过程中发生错误,错误将被写入服务器日志,查询可继续使用字典的旧版本。如果字典更新成功,旧版本将被原子性替换。
设置示例:
提示
如果你在 ClickHouse Cloud 中使用字典,请使用 DDL 查询方式来创建字典,并使用用户 default 创建字典。
另外,请在 Cloud Compatibility 指南 中核对受支持的字典数据源列表。
<dictionary>
...
<lifetime>300</lifetime>
...
</dictionary>
或
CREATE DICTIONARY (...)
...
LIFETIME(300)
...
设置 <lifetime>0</lifetime> (LIFETIME(0)) 将阻止字典更新。
您可以设置更新的时间间隔,ClickHouse 将在此范围内随机选择一个时间点。这样做是为了在大量服务器上更新时分散字典源的负载。
设置示例:
<dictionary>
...
<lifetime>
<min>300</min>
<max>360</max>
</lifetime>
...
</dictionary>
或
LIFETIME(MIN 300 MAX 360)
如果 <min>0</min> 和 <max>0</max>,ClickHouse 不会基于超时自动重新加载字典。
在这种情况下,如果字典配置文件发生变更或执行了 SYSTEM RELOAD DICTIONARY 命令,ClickHouse 可以重新加载字典。
更新字典时,ClickHouse 服务器会根据源 类型应用不同的逻辑:
对于文本文件,会检查其修改时间。如果该时间与先前记录的时间不同,则会更新字典。
默认情况下,来自其他来源的字典每次都会更新。
对于其他数据源(ODBC、PostgreSQL、ClickHouse 等),您可以设置查询,使字典仅在实际发生变化时更新,而非每次都更新。具体步骤如下:
字典表必须包含一个在源数据更新时会随之变化的字段。
source 的 settings 中必须指定一个用于检索变化字段的查询。ClickHouse 服务器将查询结果视为一行,如果该行相较于之前的状态发生了变化,就会更新字典。在 source 的 settings 中,将该查询指定在 <invalidate_query> 字段中。
设置示例:
<dictionary>
...
<odbc>
...
<invalidate_query>SELECT update_time FROM dictionary_source where id = 1</invalidate_query>
</odbc>
...
</dictionary>
或
...
SOURCE(ODBC(... invalidate_query 'SELECT update_time FROM dictionary_source where id = 1'))
...
对于 Cache、ComplexKeyCache、SSDCache 和 SSDComplexKeyCache 字典,支持同步和异步两种更新方式。
对于 Flat、Hashed、HashedArray、ComplexKeyHashed 字典,可以配置为仅请求自上次更新后发生变化的数据。如果在字典源配置中指定了 update_field,则会将上次更新时间的值(以秒为单位)添加到数据请求中。根据源类型(Executable、HTTP、MySQL、PostgreSQL、ClickHouse 或 ODBC),在从外部源请求数据之前,会对 update_field 应用不同的逻辑。
如果数据源为 HTTP,则会将 update_field 作为查询参数添加,参数值为上次更新时间。
如果源是 Executable 类型,则会将 update_field 作为可执行脚本的参数添加,参数值为上次更新时间。
如果源是 ClickHouse、MySQL、PostgreSQL 或 ODBC,则会在 WHERE 子句中增加一个额外条件,将 update_field 与上次更新时间做大于或等于比较。
默认情况下,此 WHERE 条件会在 SQL 查询的最外层进行检查。或者,也可以在查询中的其他任意 WHERE 子句中使用 {condition} 关键字来应用该条件。示例:
...
SOURCE(CLICKHOUSE(...
update_field 'added_time'
QUERY '
SELECT my_arr.1 AS x, my_arr.2 AS y, creation_time
FROM (
SELECT arrayZip(x_arr, y_arr) AS my_arr, creation_time
FROM dictionary_source
WHERE {condition}
)'
))
...
如果设置了 update_field 选项,则可以再设置一个额外的 update_lag 选项。在请求更新数据之前,会先从上一次的更新时间中减去 update_lag 选项的取值。
设置示例:
<dictionary>
...
<clickhouse>
...
<update_field>added_time</update_field>
<update_lag>15</update_lag>
</clickhouse>
...
</dictionary>
或
...
SOURCE(CLICKHOUSE(... update_field 'added_time' update_lag 15))
...
字典数据源
提示
如果你在 ClickHouse Cloud 中使用字典,请使用 DDL 查询方式来创建字典,并使用用户 default 创建字典。
另外,请在 Cloud Compatibility 指南 中核对受支持的字典数据源列表。
可以将字典与 ClickHouse 连接到多种不同的数据源。
如果使用 XML 文件配置字典,配置如下所示:
<clickhouse>
<dictionary>
...
<source>
<source_type>
<!-- Source configuration -->
</source_type>
</source>
...
</dictionary>
...
</clickhouse>
如果使用 DDL 查询 ,上述配置将如下所示:
CREATE DICTIONARY dict_name (...)
...
SOURCE(SOURCE_TYPE(param1 val1 ... paramN valN)) -- Source configuration
...
在 source 部分中配置数据源。
对于源类型 本地文件 、可执行文件 、HTTP(s) 、ClickHouse ,提供以下可选设置:
<source>
<file>
<path>/opt/dictionaries/os.tsv</path>
<format>TabSeparated</format>
</file>
<settings>
<format_csv_allow_single_quotes>0</format_csv_allow_single_quotes>
</settings>
</source>
或
SOURCE(FILE(path './user_files/os.tsv' format 'TabSeparated'))
SETTINGS(format_csv_allow_single_quotes = 0)
源类型 (source_type):
本地文件
配置示例:
<source>
<file>
<path>/opt/dictionaries/os.tsv</path>
<format>TabSeparated</format>
</file>
</source>
或
SOURCE(FILE(path './user_files/os.tsv' format 'TabSeparated'))
设置字段:
path – 文件的绝对路径。
format – 文件格式。支持格式 中描述的所有格式。
当通过 DDL 命令(CREATE DICTIONARY ...)创建以 FILE 为 source 的字典时,源文件需要位于 user_files 目录中,以防止数据库用户访问 ClickHouse 节点上的任意文件。
另请参阅
可执行文件
对可执行文件的处理方式取决于字典在内存中的存储方式 。如果字典使用 cache 和 complex_key_cache 进行存储,ClickHouse 会通过向可执行文件的 STDIN 发送请求来获取所需的键。否则,ClickHouse 会启动可执行文件,并将其输出视为字典数据。
设置示例:
<source>
<executable>
<command>cat /opt/dictionaries/os.tsv</command>
<format>TabSeparated</format>
<implicit_key>false</implicit_key>
</executable>
</source>
设置字段:
command — 可执行文件的绝对路径,或文件名(如果该命令所在目录在 PATH 中)。
format — 文件格式。支持 Formats 中描述的所有格式。
command_termination_timeout — 可执行脚本应包含一个主要的读写循环。在字典被销毁后,管道会被关闭,在 ClickHouse 向子进程发送 SIGTERM 信号之前,可执行文件将有 command_termination_timeout 秒的时间来关闭。command_termination_timeout 以秒为单位。默认值为 10。可选参数。
command_read_timeout - 从命令 stdout 读取数据的超时时间,单位为毫秒。默认值为 10000。可选参数。
command_write_timeout - 向命令 stdin 写入数据的超时时间,单位为毫秒。默认值为 10000。可选参数。
implicit_key — 可执行数据源可以只返回值,与请求键的对应关系通过结果中行的顺序隐式确定。默认值为 false。
execute_direct - 如果 execute_direct = 1,则会在由 user_scripts_path 指定的 user_scripts 文件夹中查找 command。可以使用空格分隔来指定额外的脚本参数。例如:script_name arg1 arg2。如果 execute_direct = 0,command 会作为参数传给 bin/sh -c。默认值为 0。可选参数。
send_chunk_header - 控制在发送一块数据进行处理之前,是否先发送行数。可选参数。默认值为 false。
这种字典数据源只能通过 XML 配置进行配置。通过 DDL 创建带可执行数据源的字典已被禁用;否则,DB 用户将能够在 ClickHouse 节点上执行任意二进制文件。
可执行池
可执行池允许从一组进程(pool of processes)中加载数据。此数据源不适用于需要从源加载全部数据的字典布局。仅当字典存储 方式使用 cache、complex_key_cache、ssd_cache、complex_key_ssd_cache、direct 或 complex_key_direct 布局时,可执行池才可工作。
可执行池会使用指定命令启动一组进程并保持其运行,直到它们退出。程序应在 STDIN 有数据时从中读取,并将结果输出到 STDOUT。程序可以在 STDIN 上等待下一数据块。ClickHouse 在处理完一个数据块后不会关闭 STDIN,而是在需要时通过管道传递下一块数据。可执行脚本应对这种数据处理方式做好准备——应轮询 STDIN,并尽早将数据刷新到 STDOUT。
设置示例:
<source>
<executable_pool>
<command><command>while read key; do printf "$key\tData for key $key\n"; done</command</command>
<format>TabSeparated</format>
<pool_size>10</pool_size>
<max_command_execution_time>10<max_command_execution_time>
<implicit_key>false</implicit_key>
</executable_pool>
</source>
Setting 字段:
command — 可执行文件的绝对路径,或文件名(如果程序所在目录已配置到 PATH 中)。
format — 文件格式。支持“Formats ”中描述的所有格式。
pool_size — 连接池大小。如果 pool_size 指定为 0,则不限制连接池大小。默认值为 16。
command_termination_timeout — 可执行脚本应包含主要的读写循环。在字典被销毁后,管道会被关闭,可执行文件将在 command_termination_timeout 秒内完成关闭,否则 ClickHouse 会向子进程发送 SIGTERM 信号。以秒为单位。默认值为 10。可选参数。
max_command_execution_time — 处理数据块时可执行脚本命令的最大执行时间。以秒为单位。默认值为 10。可选参数。
command_read_timeout - 从命令的 stdout 读取数据的超时时间(毫秒)。默认值为 10000。可选参数。
command_write_timeout - 向命令的 stdin 写入数据的超时时间(毫秒)。默认值为 10000。可选参数。
implicit_key — 可执行源只需返回值,与请求键的对应关系根据结果中行的顺序隐式确定。默认值为 false。可选参数。
execute_direct - 如果 execute_direct = 1,则会在由 user_scripts_path 指定的 user_scripts 目录中查找 command。可以使用空格分隔符指定额外的脚本参数。例如:script_name arg1 arg2。如果 execute_direct = 0,则将 command 作为 bin/sh -c 的参数传递。默认值为 1。可选参数。
send_chunk_header - 控制在发送要处理的数据块之前,是否先发送行数。可选参数。默认值为 false。
该字典源只能通过 XML 配置进行配置。禁止通过 DDL 创建使用 executable 源的字典,否则数据库用户将能够在 ClickHouse 节点上执行任意二进制程序。
HTTP(S)
与 HTTP(S) 服务器配合使用时的行为取决于字典在内存中的存储方式 。如果字典使用 cache 和 complex_key_cache 进行存储,ClickHouse 会通过发送 POST 请求来获取所需的键。
设置示例:
<source>
<http>
<url>http://[::1]/os.tsv</url>
<format>TabSeparated</format>
<credentials>
<user>user</user>
<password>password</password>
</credentials>
<headers>
<header>
<name>API-KEY</name>
<value>key</value>
</header>
</headers>
</http>
</source>
或
SOURCE(HTTP(
url 'http://[::1]/os.tsv'
format 'TabSeparated'
credentials(user 'user' password 'password')
headers(header(name 'API-KEY' value 'key'))
))
为了让 ClickHouse 访问 HTTPS 资源,必须在服务器配置中配置 OpenSSL 。
字段说明:
url – 源 URL。
format – 文件格式。支持在“Formats ”中描述的所有格式。
credentials – HTTP 基本认证。可选参数。
user – 认证所需的用户名。
password – 认证所需的密码。
headers – 用于 HTTP 请求的所有自定义 HTTP 头部条目。可选参数。
header – 单个 HTTP 头部条目。
name – 在请求中发送的该 header 所使用的标识名。
value – 为特定标识名设置的值。
当使用 DDL 命令(CREATE DICTIONARY ...)创建字典时,会将 HTTP 字典的远程主机与配置中的 remote_url_allow_hosts 部分内容进行比对,以防止数据库用户访问任意 HTTP 服务器。
数据库管理系统(DBMS)
ODBC
你可以使用这种方式连接任何带有 ODBC 驱动的数据库。
配置示例:
<source>
<odbc>
<db>DatabaseName</db>
<table>ShemaName.TableName</table>
<connection_string>DSN=some_parameters</connection_string>
<invalidate_query>SQL_QUERY</invalidate_query>
<query>SELECT id, value_1, value_2 FROM ShemaName.TableName</query>
</odbc>
</source>
或
SOURCE(ODBC(
db 'DatabaseName'
table 'SchemaName.TableName'
connection_string 'DSN=some_parameters'
invalidate_query 'SQL_QUERY'
query 'SELECT id, value_1, value_2 FROM db_name.table_name'
))
字段说明:
db – 数据库名称。如果在 <connection_string> 参数中已经设置了数据库名称,则可以省略。
table – 表名以及(如果存在)schema 名称。
connection_string – 连接字符串。
invalidate_query – 用于检查字典状态的查询。可选参数。详见章节 Refreshing dictionary data using LIFETIME 。
background_reconnect – 如果连接失败,则在后台重新连接到副本。可选参数。
query – 自定义查询。可选参数。
注意
table 和 query 字段不能同时使用,并且必须声明 table 或 query 字段中的至少一个。
ClickHouse 从 ODBC 驱动程序接收引号符号,并在发往驱动程序的查询中为所有设置加上引号,因此必须按照数据库中表名的大小写准确设置表名。
如果在使用 Oracle 时遇到编码问题,请参阅相应的 FAQ 条目。
ODBC 字典功能的已知漏洞
注意
当通过 ODBC 驱动连接到数据库时,连接参数中的 Servername 可能被替换。在这种情况下,odbc.ini 中的 USERNAME 和 PASSWORD 的值会被发送到远程服务器,可能会被泄露。
不安全用法示例
下面我们为 PostgreSQL 配置 unixODBC。/etc/odbc.ini 的内容如下:
[gregtest]
Driver = /usr/lib/psqlodbca.so
Servername = localhost
PORT = 5432
DATABASE = test_db
#OPTION = 3
USERNAME = test
PASSWORD = test
如果你接下来执行如下查询:
SELECT * FROM odbc('DSN=gregtest;Servername=some-server.com', 'test_db');
ODBC 驱动程序会将 odbc.ini 中的 USERNAME 和 PASSWORD 值发送到 some-server.com。
连接 PostgreSQL 的示例
在 Ubuntu 操作系统上:
安装 unixODBC 和 PostgreSQL 的 ODBC 驱动程序:
$ sudo apt-get install -y unixodbc odbcinst odbc-postgresql
配置 /etc/odbc.ini(如果是以运行 ClickHouse 的用户身份登录,则使用 ~/.odbc.ini):
[DEFAULT]
Driver = myconnection
[myconnection]
Description = 连接到 my_db 的 PostgreSQL 连接
Driver = PostgreSQL Unicode
Database = my_db
Servername = 127.0.0.1
UserName = username
Password = password
Port = 5432
Protocol = 9.3
ReadOnly = No
RowVersioning = No
ShowSystemTables = No
ConnSettings =
ClickHouse 中字典的配置:
<clickhouse>
<dictionary>
<name>table_name</name>
<source>
<odbc>
<!-- 可在 connection_string 中指定以下参数: -->
<!-- DSN=myconnection;UID=username;PWD=password;HOST=127.0.0.1;PORT=5432;DATABASE=my_db -->
<connection_string>DSN=myconnection</connection_string>
<table>postgresql_table</table>
</odbc>
</source>
<lifetime>
<min>300</min>
<max>360</max>
</lifetime>
<layout>
<hashed/>
</layout>
<structure>
<id>
<name>id</name>
</id>
<attribute>
<name>some_column</name>
<type>UInt64</type>
<null_value>0</null_value>
</attribute>
</structure>
</dictionary>
</clickhouse>
或
CREATE DICTIONARY table_name (
id UInt64,
some_column UInt64 DEFAULT 0
)
PRIMARY KEY id
SOURCE(ODBC(connection_string 'DSN=myconnection' table 'postgresql_table'))
LAYOUT(HASHED())
LIFETIME(MIN 300 MAX 360)
您可能需要编辑 odbc.ini,将驱动程序库的完整路径指定为:DRIVER=/usr/local/lib/psqlodbcw.so。
连接 MS SQL Server 的示例
在 Ubuntu 操作系统上。
安装用于连接 MS SQL Server 的 ODBC 驱动程序:
$ sudo apt-get install tdsodbc freetds-bin sqsh
配置驱动:
$ cat /etc/freetds/freetds.conf
...
[MSSQL]
host = 192.168.56.101
port = 1433
tds version = 7.0
client charset = UTF-8
# 测试 TDS 连接
$ sqsh -S MSSQL -D database -U user -P password
$ cat /etc/odbcinst.ini
[FreeTDS]
Description = FreeTDS
Driver = /usr/lib/x86_64-linux-gnu/odbc/libtdsodbc.so
Setup = /usr/lib/x86_64-linux-gnu/odbc/libtdsS.so
FileUsage = 1
UsageCount = 5
$ cat /etc/odbc.ini
# $ cat ~/.odbc.ini # 如果以运行 ClickHouse 的用户身份登录
[MSSQL]
Description = FreeTDS
Driver = FreeTDS
Servername = MSSQL
Database = test
UID = test
PWD = test
Port = 1433
# (可选)测试 ODBC 连接(使用 isql 工具需安装 [unixodbc](https://packages.debian.org/sid/unixodbc) 包)
$ isql -v MSSQL "user" "password"
备注:
在 ClickHouse 中配置字典:
<clickhouse>
<dictionary>
<name>test</name>
<source>
<odbc>
<table>dict</table>
<connection_string>DSN=MSSQL;UID=test;PWD=test</connection_string>
</odbc>
</source>
<lifetime>
<min>300</min>
<max>360</max>
</lifetime>
<layout>
<flat />
</layout>
<structure>
<id>
<name>k</name>
</id>
<attribute>
<name>s</name>
<type>String</type>
<null_value></null_value>
</attribute>
</structure>
</dictionary>
</clickhouse>
或
CREATE DICTIONARY test (
k UInt64,
s String DEFAULT ''
)
PRIMARY KEY k
SOURCE(ODBC(table 'dict' connection_string 'DSN=MSSQL;UID=test;PWD=test'))
LAYOUT(FLAT())
LIFETIME(MIN 300 MAX 360)
MySQL
设置示例:
<source>
<mysql>
<port>3306</port>
<user>clickhouse</user>
<password>qwerty</password>
<replica>
<host>example01-1</host>
<priority>1</priority>
</replica>
<replica>
<host>example01-2</host>
<priority>1</priority>
</replica>
<db>db_name</db>
<table>table_name</table>
<where>id=10</where>
<invalidate_query>SQL_QUERY</invalidate_query>
<fail_on_connection_loss>true</fail_on_connection_loss>
<query>SELECT id, value_1, value_2 FROM db_name.table_name</query>
</mysql>
</source>
或
SOURCE(MYSQL(
port 3306
user 'clickhouse'
password 'qwerty'
replica(host 'example01-1' priority 1)
replica(host 'example01-2' priority 1)
db 'db_name'
table 'table_name'
where 'id=10'
invalidate_query 'SQL_QUERY'
fail_on_connection_loss 'true'
query 'SELECT id, value_1, value_2 FROM db_name.table_name'
))
设置字段:
port – MySQL 服务器上的端口。可以为所有副本统一指定,也可以在每个副本内单独指定(在 <replica> 中)。
user – MySQL 用户名。可以为所有副本统一指定,也可以在每个副本内单独指定(在 <replica> 中)。
password – MySQL 用户的密码。可以为所有副本统一指定,也可以在每个副本内单独指定(在 <replica> 中)。
replica – 副本配置节。可以包含多个该节。
replica/host – MySQL 主机。
replica/priority – 副本优先级。尝试连接时,ClickHouse 会按优先级顺序遍历副本。数字越小,优先级越高。
db – 数据库名称。
table – 表名称。
where – 筛选条件。条件的语法与 MySQL 中 WHERE 子句相同,例如 id > 10 AND id < 20。可选参数。
invalidate_query – 用于检查字典状态的查询。可选参数。更多信息参见使用 LIFETIME 刷新字典数据 部分。
fail_on_connection_loss – 控制服务器在连接丢失时行为的配置参数。如果为 true,当客户端与服务器之间的连接丢失时会立即抛出异常。如果为 false,ClickHouse 服务器会在抛出异常前重试执行该查询三次。请注意,重试会导致响应时间增加。默认值:false。
query – 自定义查询。可选参数。
注意
table 或 where 字段不能与 query 字段同时使用。同时必须声明 table 或 query 字段中的一个。
注意
不存在显式的 secure 参数。在建立 SSL 连接时会强制启用安全性。
可以在本地主机上通过 socket 连接到 MySQL。为此,请设置 host 和 socket。
设置示例:
<source>
<mysql>
<host>localhost</host>
<socket>/path/to/socket/file.sock</socket>
<user>clickhouse</user>
<password>qwerty</password>
<db>db_name</db>
<table>table_name</table>
<where>id=10</where>
<invalidate_query>SQL_QUERY</invalidate_query>
<fail_on_connection_loss>true</fail_on_connection_loss>
<query>SELECT id, value_1, value_2 FROM db_name.table_name</query>
</mysql>
</source>
或
SOURCE(MYSQL(
host 'localhost'
socket '/path/to/socket/file.sock'
user 'clickhouse'
password 'qwerty'
db 'db_name'
table 'table_name'
where 'id=10'
invalidate_query 'SQL_QUERY'
fail_on_connection_loss 'true'
query 'SELECT id, value_1, value_2 FROM db_name.table_name'
))
ClickHouse
设置示例:
<source>
<clickhouse>
<host>example01-01-1</host>
<port>9000</port>
<user>default</user>
<password></password>
<db>default</db>
<table>ids</table>
<where>id=10</where>
<secure>1</secure>
<query>SELECT id, value_1, value_2 FROM default.ids</query>
</clickhouse>
</source>
或
SOURCE(CLICKHOUSE(
host 'example01-01-1'
port 9000
user 'default'
password ''
db 'default'
table 'ids'
where 'id=10'
secure 1
query 'SELECT id, value_1, value_2 FROM default.ids'
));
设置字段:
host – ClickHouse 主机。如果是本地主机,则查询在没有任何网络活动的情况下处理。为提高容错性,可以创建一个 Distributed 表,并在后续配置中使用它。
port – ClickHouse 服务器的端口。
user – ClickHouse 用户名。
password – ClickHouse 用户的密码。
db – 数据库名称。
table – 表名称。
where – 选择条件。可以省略。
invalidate_query – 用于检查字典状态的查询。可选参数。更多信息参见使用 LIFETIME 刷新字典数据 一节。
secure - 使用 SSL 进行连接。
query – 自定义查询。可选参数。
注意
table 或 where 字段不能与 query 字段一起使用,并且必须声明 table 或 query 字段中的一个。
MongoDB
配置示例:
<source>
<mongodb>
<host>localhost</host>
<port>27017</port>
<user></user>
<password></password>
<db>test</db>
<collection>dictionary_source</collection>
<options>ssl=true</options>
</mongodb>
</source>
或
<source>
<mongodb>
<uri>mongodb://localhost:27017/test?ssl=true</uri>
<collection>dictionary_source</collection>
</mongodb>
</source>
或
SOURCE(MONGODB(
host 'localhost'
port 27017
user ''
password ''
db 'test'
collection 'dictionary_source'
options 'ssl=true'
))
设置字段:
host – MongoDB 主机。
port – MongoDB 服务器端口号。
user – MongoDB 用户名。
password – MongoDB 用户密码。
db – 数据库名称。
collection – 集合名称。
options - MongoDB 连接字符串选项(可选参数)。
或
SOURCE(MONGODB(
uri 'mongodb://localhost:27017/clickhouse'
collection 'dictionary_source'
))
字段说明:
uri - 用于建立连接的 URI。
collection – 集合名称。
关于该引擎的更多信息
Redis
配置示例:
<source>
<redis>
<host>localhost</host>
<port>6379</port>
<storage_type>simple</storage_type>
<db_index>0</db_index>
</redis>
</source>
或
SOURCE(REDIS(
host 'localhost'
port 6379
storage_type 'simple'
db_index 0
))
设置字段:
host – Redis 主机。
port – Redis 服务器上的端口。
storage_type – 用于处理键的 Redis 内部存储结构。simple 用于简单数据源以及对单个键进行哈希的数据源,hash_map 用于具有两个键的哈希数据源。不支持范围型数据源以及具有复杂键的缓存数据源。可以省略,默认值为 simple。
db_index – Redis 逻辑数据库的具体数值索引。可以省略,默认值为 0。
Cassandra
配置示例:
<source>
<cassandra>
<host>localhost</host>
<port>9042</port>
<user>username</user>
<password>qwerty123</password>
<keyspase>database_name</keyspase>
<column_family>table_name</column_family>
<allow_filtering>1</allow_filtering>
<partition_key_prefix>1</partition_key_prefix>
<consistency>One</consistency>
<where>"SomeColumn" = 42</where>
<max_threads>8</max_threads>
<query>SELECT id, value_1, value_2 FROM database_name.table_name</query>
</cassandra>
</source>
配置字段:
host – Cassandra 主机或以逗号分隔的主机列表。
port – Cassandra 服务器的端口。如果未指定,则使用默认端口 9042。
user – Cassandra 用户名。
password – Cassandra 用户密码。
keyspace – keyspace(数据库)名称。
column_family – column family(表)名称。
allow_filtering – 是否允许在聚簇键列上使用可能代价较高的条件的标记。默认值为 1。
partition_key_prefix – Cassandra 表主键中分区键列的数量。对于组合键字典,这是必需的。字典定义中的键列顺序必须与 Cassandra 中的顺序相同。默认值为 1(第一个键列是分区键,其余键列是聚簇键)。
consistency – 一致性级别。可选值:One、Two、Three、All、EachQuorum、Quorum、LocalQuorum、LocalOne、Serial、LocalSerial。默认值为 One。
where – 可选的筛选条件。
max_threads – 在组合键字典中从多个分区加载数据时使用的最大线程数。
query – 自定义查询。可选参数。
注意
column_family 或 where 字段不能与 query 字段同时使用。同时必须至少声明 column_family 和 query 字段中的一个。
PostgreSQL
配置示例:
<source>
<postgresql>
<host>postgresql-hostname</hoat>
<port>5432</port>
<user>clickhouse</user>
<password>qwerty</password>
<db>db_name</db>
<table>table_name</table>
<where>id=10</where>
<invalidate_query>SQL_QUERY</invalidate_query>
<query>SELECT id, value_1, value_2 FROM db_name.table_name</query>
</postgresql>
</source>
或
SOURCE(POSTGRESQL(
port 5432
host 'postgresql-hostname'
user 'postgres_user'
password 'postgres_password'
db 'db_name'
table 'table_name'
replica(host 'example01-1' port 5432 priority 1)
replica(host 'example01-2' port 5432 priority 2)
where 'id=10'
invalidate_query 'SQL_QUERY'
query 'SELECT id, value_1, value_2 FROM db_name.table_name'
))
字段说明:
host – PostgreSQL 服务器上的主机名。可以为所有副本统一指定,也可以为每个副本单独指定(在 <replica> 内部)。
port – PostgreSQL 服务器上的端口。可以为所有副本统一指定,也可以为每个副本单独指定(在 <replica> 内部)。
user – PostgreSQL 用户名。可以为所有副本统一指定,也可以为每个副本单独指定(在 <replica> 内部)。
password – PostgreSQL 用户密码。可以为所有副本统一指定,也可以为每个副本单独指定(在 <replica> 内部)。
replica – 副本配置段。可以包含多个此类配置段:
replica/host – PostgreSQL 主机。
replica/port – PostgreSQL 端口。
replica/priority – 副本优先级。尝试连接时,ClickHouse 会按优先级顺序遍历副本。数字越小,优先级越高。
db – 数据库名。
table – 表名。
where – 选择条件。其条件语法与 PostgreSQL 中 WHERE 子句相同。例如,id > 10 AND id < 20。可选参数。
invalidate_query – 用于检查字典状态的查询。可选参数。详细信息参见 使用 LIFETIME 刷新字典数据 一节。
background_reconnect – 如果连接失败,则在后台重新连接到副本。可选参数。
query – 自定义查询。可选参数。
注意
table 或 where 字段不能与 query 字段同时使用。同时,table 和 query 字段中必须至少声明一个。
YTsaurus
Not supported in ClickHouse Cloud
设置示例:
<source>
<ytsaurus>
<http_proxy_urls>http://localhost:8000</http_proxy_urls>
<cypress_path>//tmp/test</cypress_path>
<oauth_token>password</oauth_token>
<check_table_schema>1</check_table_schema>
</ytsaurus>
</source>
或
SOURCE(YTSAURUS(
http_proxy_urls 'http://localhost:8000'
cypress_path '//tmp/test'
oauth_token 'password'
))
设置字段:
http_proxy_urls – 指向 YTsaurus HTTP 代理的 URL。
cypress_path – 指向表数据源的 Cypress 路径。
oauth_token – OAuth 令牌。
Null
一种特殊的数据源,可用于创建占位(空)字典。此类字典在测试场景中,或在数据节点与查询节点分离且这些节点上使用分布式表的环境中会很有用。
CREATE DICTIONARY null_dict (
id UInt64,
val UInt8,
default_val UInt8 DEFAULT 123,
nullable_val Nullable(UInt8)
)
PRIMARY KEY id
SOURCE(NULL())
LAYOUT(FLAT())
LIFETIME(0);
字典键和字段
提示
如果你在 ClickHouse Cloud 中使用字典,请使用 DDL 查询方式来创建字典,并使用用户 default 创建字典。
另外,请在 Cloud Compatibility 指南 中核对受支持的字典数据源列表。
structure 子句用于描述可在查询中使用的字典键和字段。
XML 描述:
<dictionary>
<structure>
<id>
<name>Id</name>
</id>
<attribute>
<!-- 属性参数 -->
</attribute>
...
</structure>
</dictionary>
属性在以下元素中描述:
<id> — 键列
<attribute> — 数据列:可以包含多个属性。
DDL 查询:
CREATE DICTIONARY dict_name (
Id UInt64,
-- 属性
)
PRIMARY KEY Id
...
属性在查询体中描述:
PRIMARY KEY — 键列
AttrName AttrType — 数据列。可以有多个属性。
ClickHouse 支持以下类型的键:
数值键。UInt64。在 <id> 标签中定义,或使用 PRIMARY KEY 关键字定义。
复合键。由不同类型的值组成的集合。在 <key> 标签中定义,或使用 PRIMARY KEY 关键字定义。
一个 XML 结构中只能包含 <id> 或 <key> 其中之一。DDL 查询中必须只包含一个 PRIMARY KEY。
数值型键
类型:UInt64。
配置示例:
<id>
<name>ID</name>
</id>
配置字段:
对于 DDL 查询:
CREATE DICTIONARY (
Id UInt64,
...
)
PRIMARY KEY Id
...
复合键
键可以是由任意类型字段组成的 tuple。在这种情况下,layout 必须为 complex_key_hashed 或 complex_key_cache。
提示
复合键也可以只包含一个元素。例如,这样就可以使用字符串作为键。
键结构在 <key> 元素中进行设置。键字段的指定格式与字典的属性 相同。示例:
<structure>
<key>
<attribute>
<name>field1</name>
<type>String</type>
</attribute>
<attribute>
<name>field2</name>
<type>UInt32</type>
</attribute>
...
</key>
...
或
CREATE DICTIONARY (
field1 String,
field2 UInt32
...
)
PRIMARY KEY field1, field2
...
对于对 dictGet* 函数的查询,会传入一个 tuple 作为键。示例:dictGetString('dict_name', 'attr_name', tuple('string for field1', num_for_field2))。
配置示例:
<structure>
...
<attribute>
<name>Name</name>
<type>ClickHouseDataType</type>
<null_value></null_value>
<expression>rand64()</expression>
<hierarchical>true</hierarchical>
<injective>true</injective>
<is_object_id>true</is_object_id>
</attribute>
</structure>
或
CREATE DICTIONARY somename (
Name ClickHouseDataType DEFAULT '' EXPRESSION rand64() HIERARCHICAL INJECTIVE IS_OBJECT_ID
)
配置项字段:
层次字典
ClickHouse 支持使用数值键 的层次字典。
请看下面的层次结构:
0 (公共父节点)
│
├── 1 (俄罗斯)
│ │
│ └── 2 (莫斯科)
│ │
│ └── 3 (中心区)
│
└── 4 (英国)
│
└── 5 (伦敦)
这种层级可以用如下字典表来表示。
region_id parent_region region_name 1 0 Russia 2 1 Moscow 3 2 Center 4 0 Great Britain 5 4 London
该表包含一个 parent_region 列,其中存放了各元素最近父级的键。
ClickHouse 为外部字典属性提供层级(hierarchical)特性。借助这一特性,可以像上面所述那样配置层级字典。
dictGetHierarchy 函数允许获取某个元素的父级链。
在我们的示例中,字典的结构可以如下所示:
<dictionary>
<structure>
<id>
<name>region_id</name>
</id>
<attribute>
<name>parent_region</name>
<type>UInt64</type>
<null_value>0</null_value>
<hierarchical>true</hierarchical>
</attribute>
<attribute>
<name>region_name</name>
<type>String</type>
<null_value></null_value>
</attribute>
</structure>
</dictionary>
多边形字典
该字典针对点在多边形内的查询进行了优化,本质上对应于“反向地理编码”查询。给定一个坐标(纬度/经度),它可以高效地在大量多边形集合(例如国家或地区边界)中找出包含该点的多边形或区域。它非常适合将位置坐标映射到其所属区域。
VIDEO
多边形字典配置示例:
提示
如果你在 ClickHouse Cloud 中使用字典,请使用 DDL 查询方式来创建字典,并使用用户 default 创建字典。
另外,请在 Cloud Compatibility 指南 中核对受支持的字典数据源列表。
<dictionary>
<structure>
<key>
<attribute>
<name>key</name>
<type>Array(Array(Array(Array(Float64))))</type>
</attribute>
</key>
<attribute>
<name>name</name>
<type>String</type>
<null_value></null_value>
</attribute>
<attribute>
<name>value</name>
<type>UInt64</type>
<null_value>0</null_value>
</attribute>
</structure>
<layout>
<polygon>
<store_polygon_key_column>1</store_polygon_key_column>
</polygon>
</layout>
...
</dictionary>
对应的 DDL 查询 :
CREATE DICTIONARY polygon_dict_name (
key Array(Array(Array(Array(Float64)))),
name String,
value UInt64
)
PRIMARY KEY key
LAYOUT(POLYGON(STORE_POLYGON_KEY_COLUMN 1))
...
在配置多边形字典时,键必须是以下两种类型之一:
简单多边形。它是一个点的数组。
MultiPolygon。它是一个多边形数组。每个多边形是一个二维点数组。该数组的第一个元素是多边形的外边界,后续元素指定要从其中排除的区域。
点可以用其坐标的数组或元组来指定。在当前实现中,仅支持二维点。
用户可以以 ClickHouse 支持的所有格式上传自己的数据。
有 3 种可用的内存存储 类型:
POLYGON_SIMPLE。这是一个朴素实现,对每个查询线性遍历所有多边形,并在不使用额外索引的情况下检查每个多边形的包含关系。
POLYGON_INDEX_EACH。为每个多边形构建一个单独的索引,这在大多数情况下可以让你快速检查点是否属于该多边形(针对地理区域进行了优化)。
同时,在待处理的区域上叠加一层网格,这会显著缩小需要考虑的多边形数量。
该网格通过将单元递归地划分为 16 个相等部分来创建,并通过两个参数进行配置。
当递归深度达到 MAX_DEPTH 或者单元格与不超过 MIN_INTERSECTIONS 个多边形相交时,划分会停止。
处理查询时,会定位到对应的单元格,并依次访问其中存储的多边形索引。
POLYGON_INDEX_CELL。此布局同样会创建上面描述的网格,可用的选项相同。对于每个叶子单元格,会基于落入该单元格的所有多边形片段构建索引,从而能够快速响应请求。
POLYGON。是 POLYGON_INDEX_CELL 的同义词。
字典查询是使用用于处理字典的标准函数 来执行的。
一个重要的区别是,这里的键是需要查找其所在多边形的点。
示例
使用上述定义的字典的示例:
CREATE TABLE points (
x Float64,
y Float64
)
...
SELECT tuple(x, y) AS key, dictGet(dict_name, 'name', key), dictGet(dict_name, 'value', key) FROM points ORDER BY x, y;
在对 points 表中的每个点执行上述最后一条命令后,将找到包含该点的最小面积多边形,并输出所请求的属性。
示例
你可以通过 SELECT 查询从多边形字典中读取列,只需在字典配置或对应的 DDL 查询中启用 store_polygon_key_column = 1。
查询:
CREATE TABLE polygons_test_table
(
key Array(Array(Array(Tuple(Float64, Float64)))),
name String
) ENGINE = TinyLog;
INSERT INTO polygons_test_table VALUES ([[[(3, 1), (0, 1), (0, -1), (3, -1)]]], 'Value');
CREATE DICTIONARY polygons_test_dictionary
(
key Array(Array(Array(Tuple(Float64, Float64)))),
name String
)
PRIMARY KEY key
SOURCE(CLICKHOUSE(TABLE 'polygons_test_table'))
LAYOUT(POLYGON(STORE_POLYGON_KEY_COLUMN 1))
LIFETIME(0);
SELECT * FROM polygons_test_dictionary;
结果:
┌─key─────────────────────────────┬─name──┐
│ [[[(3,1),(0,1),(0,-1),(3,-1)]]] │ Value │
└─────────────────────────────────┴───────┘
正则表达式树字典
该字典允许基于分层的正则表达式模式,将键映射到相应的值。它针对模式匹配查询进行了优化(例如通过匹配正则表达式模式对用户代理字符串等进行分类),而不是针对精确键匹配进行优化。
VIDEO
在 ClickHouse 开源版中使用正则表达式树字典
在 ClickHouse 开源版中,正则表达式树字典是通过 YAMLRegExpTree 源定义的,该源会接收一个指向包含正则表达式树的 YAML 文件的路径。
CREATE DICTIONARY regexp_dict
(
regexp String,
name String,
version String
)
PRIMARY KEY(regexp)
SOURCE(YAMLRegExpTree(PATH '/var/lib/clickhouse/user_files/regexp_tree.yaml'))
LAYOUT(regexp_tree)
...
字典源 YAMLRegExpTree 表示正则表达式树的结构。例如:
- regexp: 'Linux/(\d+[\.\d]*).+tlinux'
name: 'TencentOS'
version: '\1'
- regexp: '\d+/tclwebkit(?:\d+[\.\d]*)'
name: 'Android'
versions:
- regexp: '33/tclwebkit'
version: '13'
- regexp: '3[12]/tclwebkit'
version: '12'
- regexp: '30/tclwebkit'
version: '11'
- regexp: '29/tclwebkit'
version: '10'
该配置由一组正则表达式树节点组成。每个节点具有以下结构:
regexp :该节点的正则表达式。
attributes :用户自定义字典属性的列表。在本示例中,有两个属性:name 和 version。第一个节点定义了这两个属性。第二个节点只定义属性 name。属性 version 由第二个节点的子节点提供。
属性的值可以包含反向引用 ,用于引用匹配正则表达式的捕获组。在示例中,第一个节点中属性 version 的值由对正则表达式中捕获组 (\d+[\.\d]*) 的反向引用 \1 组成。反向引用编号范围为 1 到 9,写作 $1 或 \1(对于编号 1)。在查询执行期间,反向引用会被相应的匹配捕获组替换。
child nodes :正则表达式树节点的子节点列表,每个子节点都有其自身的属性以及(可能存在的)子节点。字符串匹配以深度优先方式进行。如果某个字符串匹配某个正则表达式节点,则字典会检查它是否也匹配该节点的子节点。如果是,则会使用最深层匹配节点的属性。子节点的属性会覆盖父节点中同名属性。在 YAML 文件中,子节点的名称可以是任意的,例如上述示例中的 versions。
正则表达式树字典仅允许通过函数 dictGet、dictGetOrDefault 和 dictGetAll 进行访问。
示例:
SELECT dictGet('regexp_dict', ('name', 'version'), '31/tclwebkit1024');
结果:
┌─dictGet('regexp_dict', ('name', 'version'), '31/tclwebkit1024')─┐
│ ('Android','12') │
└─────────────────────────────────────────────────────────────────┘
在这个示例中,我们首先在顶层的第二个节点中匹配正则表达式 \d+/tclwebkit(?:\d+[\.\d]*)。随后,字典继续向下查找其子节点,并发现该字符串同样匹配 3[12]/tclwebkit。因此,属性 name 的值为 Android(在第一层中定义),属性 version 的值为 12(在子节点中定义)。
借助功能强大的 YAML 配置文件,我们可以将正则树字典用作 User-Agent 字符串解析器。我们支持 uap-core ,并在功能测试用例 02504_regexp_dictionary_ua_parser 中演示了其用法。
收集属性值
有时,与其只返回叶子节点的值,不如返回所有匹配成功的多个正则表达式的值更有用。在这种情况下,可以使用专门的 dictGetAll 函数。如果某个节点具有类型为 T 的属性值,dictGetAll 将返回一个包含零个或多个值的 Array(T)。
默认情况下,每个键返回的匹配数量没有上限。可以将一个上限作为可选的第四个参数传递给 dictGetAll。数组按拓扑顺序 填充,这意味着子节点先于父节点出现,兄弟节点则按照源中的顺序排列。
示例:
CREATE DICTIONARY regexp_dict
(
regexp String,
tag String,
topological_index Int64,
captured Nullable(String),
parent String
)
PRIMARY KEY(regexp)
SOURCE(YAMLRegExpTree(PATH '/var/lib/clickhouse/user_files/regexp_tree.yaml'))
LAYOUT(regexp_tree)
LIFETIME(0)
# /var/lib/clickhouse/user_files/regexp_tree.yaml \{#varlibclickhouseuser_filesregexp_treeyaml}
- regexp: 'clickhouse\.com'
tag: 'ClickHouse'
topological_index: 1
paths:
- regexp: 'clickhouse\.com/docs(.*)'
tag: 'ClickHouse 文档'
topological_index: 0
captured: '\1'
parent: 'ClickHouse'
- regexp: '/docs(/|$)'
tag: '文档'
topological_index: 2
- regexp: 'github.com'
tag: 'GitHub'
topological_index: 3
captured: 'NULL'
CREATE TABLE urls (url String) ENGINE=MergeTree ORDER BY url;
INSERT INTO urls VALUES ('clickhouse.com'), ('clickhouse.com/docs/en'), ('github.com/clickhouse/tree/master/docs');
SELECT url, dictGetAll('regexp_dict', ('tag', 'topological_index', 'captured', 'parent'), url, 2) FROM urls;
结果:
┌─url────────────────────────────────────┬─dictGetAll('regexp_dict', ('tag', 'topological_index', 'captured', 'parent'), url, 2)─┐
│ clickhouse.com │ (['ClickHouse'],[1],[],[]) │
│ clickhouse.com/docs/en │ (['ClickHouse Documentation','ClickHouse'],[0,1],['/en'],['ClickHouse']) │
│ github.com/clickhouse/tree/master/docs │ (['Documentation','GitHub'],[2,3],[NULL],[]) │
└────────────────────────────────────────┴───────────────────────────────────────────────────────────────────────────────────────┘
匹配模式
可以通过某些字典 SETTING 参数来修改模式匹配行为:
regexp_dict_flag_case_insensitive:使用大小写不敏感匹配(默认值为 false)。可以在单个表达式中使用 (?i) 和 (?-i) 覆盖此设置。
regexp_dict_flag_dotall:允许 . 匹配换行符(默认值为 false)。
在 ClickHouse Cloud 中使用正则表达式树字典
上述使用的 YAMLRegExpTree 源在 ClickHouse 开源版本中可用,但在 ClickHouse Cloud 中不可用。要在 ClickHouse Cloud 中使用正则表达式树字典,首先需要在本地运行的 ClickHouse 开源版本中基于一个 YAML 文件创建正则表达式树字典,然后使用 dictionary 表函数配合 INTO OUTFILE 子句将该字典导出为 CSV 文件。
SELECT * FROM dictionary(regexp_dict) INTO OUTFILE('regexp_dict.csv')
CSV 文件的内容如下:
1,0,"Linux/(\d+[\.\d]*).+tlinux","['version','name']","['\\1','TencentOS']"
2,0,"(\d+)/tclwebkit(\d+[\.\d]*)","['comment','version','name']","['test $1 and $2','$1','Android']"
3,2,"33/tclwebkit","['version']","['13']"
4,2,"3[12]/tclwebkit","['version']","['12']"
5,2,"3[12]/tclwebkit","['version']","['11']"
6,2,"3[12]/tclwebkit","['version']","['10']"
导出文件的 schema 如下所示:
id UInt64:RegexpTree 节点的 id。
parent_id UInt64:该节点父节点的 id。
regexp String:正则表达式字符串。
keys Array(String):用户自定义属性的名称。
values Array(String):用户自定义属性的值。
要在 ClickHouse Cloud 中创建字典,首先根据以下表结构创建一个名为 regexp_dictionary_source_table 的表:
CREATE TABLE regexp_dictionary_source_table
(
id UInt64,
parent_id UInt64,
regexp String,
keys Array(String),
values Array(String)
) ENGINE=Memory;
然后按如下方式更新本地 CSV:
clickhouse client \
--host MY_HOST \
--secure \
--password MY_PASSWORD \
--query "
INSERT INTO regexp_dictionary_source_table
SELECT * FROM input ('id UInt64, parent_id UInt64, regexp String, keys Array(String), values Array(String)')
FORMAT CSV" < regexp_dict.csv
你可以参阅 Insert Local Files 以获取更多详细信息。完成源表初始化后,我们可以基于该源表创建一个 RegexpTree:
CREATE DICTIONARY regexp_dict
(
regexp String,
name String,
version String
PRIMARY KEY(regexp)
SOURCE(CLICKHOUSE(TABLE 'regexp_dictionary_source_table'))
LIFETIME(0)
LAYOUT(regexp_tree);
嵌入式字典
Not supported in ClickHouse Cloud
ClickHouse 包含一个用于处理地理基础库(geobase)的内置功能。
这使你可以:
使用区域 ID 获取其在所需语言中的名称。
使用区域 ID 获取其所属城市、地区、联邦区、国家或大洲的 ID。
检查一个区域是否属于另一个区域。
获取上级区域的链条。
所有函数都支持“跨地域性”(translocality),即能够同时使用不同的区域归属视角。有关更多信息,参见“用于处理网站分析字典的函数”一节。
在默认软件包中,内部字典是禁用的。
要启用它们,请在服务器配置文件中取消注释 path_to_regions_hierarchy_file 和 path_to_regions_names_files 参数。
地理库从文本文件中加载。
将 regions_hierarchy*.txt 文件放入 path_to_regions_hierarchy_file 指定的目录中。该配置参数必须包含指向 regions_hierarchy.txt 文件(默认区域层级结构)的路径,其他文件(如 regions_hierarchy_ua.txt)必须位于同一目录中。
将 regions_names_*.txt 文件放在 path_to_regions_names_files 指定的目录中。
你也可以自行创建这些文件。文件格式如下:
regions_hierarchy*.txt:TabSeparated(制表符分隔,无表头),列为:
区域 ID(UInt32)
上级区域 ID(UInt32)
区域类型(UInt8):1 - 大洲,3 - 国家,4 - 联邦区,5 - 地区,6 - 城市;其他类型没有取值
人口(UInt32)—— 可选列
regions_names_*.txt:TabSeparated(制表符分隔,无表头),列为:
区域 ID(UInt32)
区域名称(String)—— 不能包含制表符或换行符,即使是转义的也不行。
在 RAM 中使用扁平数组进行存储。出于这个原因,ID 不应超过一百万。
字典可以在不重启服务器的情况下更新,但可用字典的集合不会发生变化。
为实现更新,会检查文件的修改时间。如果文件发生更改,则更新字典。
检查更改的时间间隔通过 builtin_dictionaries_reload_interval 参数进行配置。
字典更新(首次使用时的加载除外)不会阻塞查询。在更新期间,查询会使用旧版本的字典。如果在更新期间出现错误,该错误会被写入服务器日志,查询将继续使用旧版本的字典。
建议定期使用最新的地理库来更新字典。在一次更新过程中,生成新文件并将其写入单独的位置。当一切准备就绪后,将它们重命名为服务器正在使用的文件名。
还提供了用于处理操作系统标识符和搜索引擎的函数,但不建议使用它们。