跳转到主内容
跳转到主内容

使用文本索引进行全文搜索

Beta feature. Learn more.

ClickHouse 中的文本索引(也称为"倒排索引")为字符串数据提供快速的全文检索能力。 该索引将列中的每个 token 映射到包含该 token 的行。 这些 token 由称为 tokenization 的过程生成。 例如,ClickHouse 默认会将英文句子 "All cat like mice." 切分为 ["All", "cat", "like", "mice"](注意末尾的句点会被忽略)。 还提供了更高级的 tokenizer,例如用于日志数据的 tokenizer。

创建文本索引

要创建文本索引,首先启用对应的实验性 SETTING:

SET enable_full_text_index = true;

可以在 StringFixedStringArray(String)Array(FixedString) 以及 Map(通过 mapKeysmapValues map 函数)列上定义文本索引,语法如下:

CREATE TABLE tab
(
    `key` UInt64,
    `str` String,
    INDEX text_idx(str) TYPE text(
                                -- Mandatory parameters:
                                tokenizer = splitByNonAlpha
                                            | splitByString[(S)]
                                            | ngrams[(N)]
                                            | sparseGrams[(min_length[, max_length[, min_cutoff_length]])]
                                            | array
                                -- Optional parameters:
                                [, preprocessor = expression(str)]
                                -- Optional advanced parameters:
                                [, dictionary_block_size = D]
                                [, dictionary_block_frontcoding_compression = B]
                                [, posting_list_block_size = C]
                                [, posting_list_codec = 'none' | 'bitpacking' ]
                            )
)
ENGINE = MergeTree
ORDER BY key

Tokenizer 参数(必选)tokenizer 参数用于指定 tokenizer:

  • splitByNonAlpha 按非字母数字的 ASCII 字符拆分字符串(另见函数 splitByNonAlpha)。
  • splitByString(S) 按用户定义的分隔字符串 S 拆分字符串(另见函数 splitByString)。 可以使用可选参数指定分隔符列表,例如:tokenizer = splitByString([', ', '; ', '\n', '\\'])。 注意,每个分隔字符串可以由多个字符组成(例如示例中的 ', ')。 如果未显式指定(例如 tokenizer = splitByString),默认的分隔符列表是单个空格 [' ']
  • ngrams(N) 将字符串拆分为等长的 N-grams(另见函数 ngrams)。 可以使用一个介于 1 和 8 之间的可选整数参数指定 ngram 的长度,例如 tokenizer = ngrams(3)。 如果未显式指定(例如 tokenizer = ngrams),默认 ngram 长度为 3。
  • sparseGrams(min_length, max_length, min_cutoff_length) 将字符串拆分为长度至少为 min_length 且最多为 max_length(含)的可变长度 n-gram(另见函数 sparseGrams)。 如果未显式指定,min_lengthmax_length 默认分别为 3 和 100。 如果提供参数 min_cutoff_length,则只返回长度大于或等于 min_cutoff_length 的 n-gram。 与 ngrams(N) 相比,sparseGrams tokenizer 会生成可变长度的 N-grams,使得对原始文本的表示更加灵活。 例如,tokenizer = sparseGrams(3, 5, 4) 在内部会从输入字符串生成 3、4、5-gram,但只返回 4-gram 和 5-gram。
  • array 不执行任何分词,即每一行的值就是一个 token(另见函数 array)。
注意

splitByString tokenizer 按从左到右的顺序应用分隔符。 这可能会引入歧义。 例如,分隔字符串 ['%21', '%'] 会使 %21abc 被分词为 ['abc'],而将两个分隔字符串的顺序调整为 ['%', '%21'] 时,其输出将为 ['21abc']。 在大多数情况下,希望匹配时优先使用更长的分隔符。 通常可以通过按分隔字符串长度从大到小的顺序传递它们来实现。 如果这些分隔字符串恰好构成一个 prefix code,则可以以任意顺序传递。

注意

目前不建议在非西方语言(例如中文)的文本上构建文本索引。 当前支持的分词器可能会导致索引体积巨大且查询耗时较长。 我们计划在未来添加专门的、特定于语言的分词器,以更好地处理这些情况。

要测试分词器如何切分输入字符串,可以使用 ClickHouse 的 tokens 函数:

示例:

SELECT tokens('abc def', 'ngrams', 3);

结果:

['abc','bc ','c d',' de','def']

预处理器参数(可选)。参数 preprocessor 是一个表达式,会在分词之前应用到输入字符串上。

预处理器参数的典型使用场景包括:

  1. 转换为小写或大写以实现不区分大小写匹配,例如 lowerlowerUTF8,参见下方的第一个示例。
  2. UTF-8 规范化,例如 normalizeUTF8NFCnormalizeUTF8NFDnormalizeUTF8NFKCnormalizeUTF8NFKDtoValidUTF8
  3. 移除或转换不需要的字符或子字符串,例如 extractTextFromHTMLsubstringidnaEncode

预处理器表达式必须将类型为 StringFixedString 的输入值转换为相同类型的值。

示例:

  • INDEX idx(col) TYPE text(tokenizer = 'splitByNonAlpha', preprocessor = lower(col))
  • INDEX idx(col) TYPE text(tokenizer = 'splitByNonAlpha', preprocessor = substringIndex(col, '\n', 1))
  • INDEX idx(col) TYPE text(tokenizer = 'splitByNonAlpha', preprocessor = lower(extractTextFromHTML(col))

此外,预处理器表达式只能引用其上定义了该文本索引的列。 不允许使用非确定性函数。

预处理器也可以用于 Array(String)Array(FixedString) 列。 在这种情况下,预处理器表达式会对数组中的每个元素分别进行转换。

示例:

CREATE TABLE tab
(
    col Array(String),
    INDEX idx col TYPE text(tokenizer = 'splitByNonAlpha', preprocessor = lower(col))

    -- This is not legal:
    INDEX idx_illegal col TYPE text(tokenizer = 'splitByNonAlpha', preprocessor = arraySort(col))
)
ENGINE = MergeTree
ORDER BY tuple();

函数 hasTokenhasAllTokenshasAnyTokens 会在对搜索词进行分词之前,先通过预处理器对其进行转换。

例如,

CREATE TABLE tab
(
    key UInt64,
    str String,
    INDEX idx(str) TYPE text(tokenizer = 'splitByNonAlpha', preprocessor = lower(str))
)
ENGINE = MergeTree
ORDER BY tuple();

SELECT count() FROM tab WHERE hasToken(str, 'Foo');

等价于:

CREATE TABLE tab
(
    key UInt64,
    str String,
    INDEX idx(lower(str)) TYPE text(tokenizer = 'splitByNonAlpha')
)
ENGINE = MergeTree
ORDER BY tuple();

SELECT count() FROM tab WHERE hasToken(str, lower('Foo'));

其他参数(可选)。ClickHouse 中的文本索引是作为二级索引实现的。 但与其他跳过索引(skipping index)不同,文本索引具有“无限粒度”,即文本索引是为整个数据分片(part)创建的,显式指定的索引粒度会被忽略。 该取值是通过经验选取的,在大多数使用场景下在速度和索引大小之间取得了良好的平衡。 高级用户可以指定不同的索引粒度(我们不推荐这样做)。

可选高级参数

以下高级参数的默认值在几乎所有场景下都能很好地工作。 我们不建议修改它们。

可选参数 dictionary_block_size(默认值:512)指定字典块的大小(以行数计)。

可选参数 dictionary_block_frontcoding_compression(默认值:1)指定字典块是否使用 front coding 作为压缩方式。

可选参数 posting_list_block_size(默认值:1048576)指定倒排列表(posting list)块的大小(以行数计)。

可选参数 posting_list_codec(默认值:none)指定倒排列表使用的编解码器:

  • none - 倒排列表在存储时不进行额外压缩。
  • bitpacking - 先应用差分(delta)编码,然后进行bit-packing(均在固定大小的块内完成)。

在创建表之后,可以为某个列添加或移除文本索引:

ALTER TABLE tab DROP INDEX text_idx;
ALTER TABLE tab ADD INDEX text_idx(s) TYPE text(tokenizer = splitByNonAlpha);

使用文本索引

SELECT 查询中使用文本索引很简单,常见的字符串搜索函数会自动利用该索引。 如果不存在索引,这些字符串搜索函数将退化为较慢的暴力扫描。

支持的函数

当在 WHEREPREWHERE 子句中使用文本函数时,可以使用文本索引:

SELECT [...]
FROM [...]
WHERE string_search_function(column_with_text_index)

=!=

=equals)和 !=notEquals)会匹配整个给定的搜索词。

示例:

SELECT * from tab WHERE str = 'Hello';

文本索引支持 =!=,但等值和不等值查询只有在使用 array 分词器时才有意义(因为它会让索引存储整行的值)。

INNOT IN

INin)和 NOT INnotIn)与函数 equalsnotEquals 类似,但它们分别匹配全部(IN)或不匹配任何(NOT IN)搜索项。

示例:

SELECT * from tab WHERE str IN ('Hello', 'World');

适用与 =!= 相同的限制,也就是说,INNOT IN 只有在与 array 分词器配合使用时才有意义。

LIKENOT LIKEmatch

注意

目前只有当索引的 tokenizer 为 splitByNonAlphangramssparseGrams 时,这些函数才会使用文本索引进行过滤。

要在文本索引中使用 LIKElike)、NOT LIKEnotLike)以及 match 函数,ClickHouse 必须能够从搜索词中提取完整的 token。 对于使用 ngrams tokenizer 的索引,如果通配符之间所搜索字符串的长度大于或等于 ngram 的长度,则满足该条件。

使用 splitByNonAlpha tokenizer 的文本索引示例:

SELECT count() FROM tab WHERE comment LIKE 'support%';

示例中的 support 可以匹配 supportsupportssupporting 等等。 这种查询属于子串查询,无法通过文本索引加速。

要在 LIKE 查询中利用文本索引,必须将 LIKE 模式字符串按如下方式改写:

SELECT count() FROM tab WHERE comment LIKE ' support %'; -- or `% support %`

support 左右的空格可以确保该词可以被提取为一个单独的 token。

startsWithendsWith

LIKE 类似,当且仅当能够从搜索词中提取出完整的 token 时,函数 startsWithendsWith 才能使用文本索引。 对于使用 ngrams tokenizer 的索引,如果通配符之间待搜索字符串的长度大于或等于 ngram 长度,则满足这一条件。

使用 splitByNonAlpha tokenizer 的文本索引示例:

SELECT count() FROM tab WHERE startsWith(comment, 'clickhouse support');

在此示例中,只有 clickhouse 被视为一个 token。 support 不算 token,因为它还可以匹配 supportsupportssupporting 等。

要查找所有以 clickhouse supports 开头的行,请在搜索模式末尾添加一个尾随空格:

startsWith(comment, 'clickhouse supports ')`

类似地,使用 endsWith 时应在前面加一个空格:

SELECT count() FROM tab WHERE endsWith(comment, ' olap engine');

hasTokenhasTokenOrNull

函数 hasTokenhasTokenOrNull 用于匹配单个给定的 token。

与前面提到的函数不同,它们不会对搜索词进行分词(假定输入本身就是单个 token)。

示例:

SELECT count() FROM tab WHERE hasToken(comment, 'clickhouse');

在配合 text 索引使用时,hasTokenhasTokenOrNull 是性能最好的函数。

hasAnyTokenshasAllTokens

函数 hasAnyTokenshasAllTokens 用于匹配任意或全部给定的 token。

这两个函数接受的搜索 token 可以是字符串(将使用与索引列相同的 tokenizer 进行分词),也可以是已处理好的 token 数组(在搜索前不会再进行分词)。 更多信息请参阅函数文档。

示例:

-- Search tokens passed as string argument
SELECT count() FROM tab WHERE hasAnyTokens(comment, 'clickhouse olap');
SELECT count() FROM tab WHERE hasAllTokens(comment, 'clickhouse olap');

-- Search tokens passed as Array(String)
SELECT count() FROM tab WHERE hasAnyTokens(comment, ['clickhouse', 'olap']);
SELECT count() FROM tab WHERE hasAllTokens(comment, ['clickhouse', 'olap']);

has

数组函数 has 用于在字符串数组中匹配单个 token。

示例:

SELECT count() FROM tab WHERE has(array, 'clickhouse');

mapContains

函数 mapContainsmapContainsKey 的别名)会在 map 的键中,匹配从待搜索字符串中提取的 token。 其行为类似于在 String 列上使用 equals 函数。 只有当文本索引是基于 mapKeys(map) 表达式创建时,才会被使用。

示例:

SELECT count() FROM tab WHERE mapContainsKey(map, 'clickhouse');
-- OR
SELECT count() FROM tab WHERE mapContains(map, 'clickhouse');

mapContainsValue

函数 mapContainsValue 会在 map 的值中,针对从被搜索的字符串中提取出的 token 进行匹配。 其行为类似在 String 列上使用 equals 函数。 只有当文本索引是基于 mapValues(map) 表达式创建时才会被使用。

示例:

SELECT count() FROM tab WHERE mapContainsValue(map, 'clickhouse');

mapContainsKeyLikemapContainsValueLike

函数 mapContainsKeyLikemapContainsValueLike 用于将给定模式分别匹配到 map 的所有键或所有值上。

示例:

SELECT count() FROM tab WHERE mapContainsKeyLike(map, '% clickhouse %');
SELECT count() FROM tab WHERE mapContainsValueLike(map, '% clickhouse %');

operator[]

operator[] 访问运算符可以与文本索引配合使用,用于过滤键和值。只有当文本索引建立在 mapKeys(map)mapValues(map) 表达式(或二者同时)上时,才会被使用。

示例:

SELECT count() FROM tab WHERE map['engine'] = 'clickhouse';

请参考以下示例,了解如何在文本索引中使用类型为 Array(T)Map(K, V) 的列。

具有文本索引的 ArrayMap 列示例

为 Array(String) 列建立索引

假设有一个博客平台,作者使用关键词为他们的博客文章进行分类。 我们希望用户能够通过搜索或点击主题来发现相关内容。

考虑如下表定义:

CREATE TABLE posts
(
    post_id UInt64,
    title String,
    content String,
    keywords Array(String)
)
ENGINE = MergeTree
ORDER BY (post_id);

如果没有文本索引,要查找包含特定关键字(例如 clickhouse)的帖子,就必须扫描所有记录:

SELECT count() FROM posts WHERE has(keywords, 'clickhouse'); -- slow full-table scan - checks every keyword in every post

随着平台规模的增长,这会变得越来越慢,因为查询必须检查每一行中的 keywords 数组。 为了解决这个性能问题,我们为 keywords 列定义一个文本索引:

ALTER TABLE posts ADD INDEX keywords_idx(keywords) TYPE text(tokenizer = splitByNonAlpha);
ALTER TABLE posts MATERIALIZE INDEX keywords_idx; -- Don't forget to rebuild the index for existing data

为 Map 列建立索引

在许多可观测性用例中,日志消息通常会被拆分为“组件”,并按合适的数据类型存储,例如时间戳使用日期时间类型、日志级别使用 enum 等。 指标字段通常最好存储为键值对。 运维团队需要高效地搜索日志,用于调试、安全事件分析和监控。

考虑如下日志表:

CREATE TABLE logs
(
    id UInt64,
    timestamp DateTime,
    message String,
    attributes Map(String, String)
)
ENGINE = MergeTree
ORDER BY (timestamp);

如果没有文本索引,对 Map 数据的搜索需要执行全表扫描:

-- Finds all logs with rate limiting data:
SELECT count() FROM logs WHERE has(mapKeys(attributes), 'rate_limit'); -- slow full-table scan

-- Finds all logs from a specific IP:
SELECT count() FROM logs WHERE has(mapValues(attributes), '192.168.1.1'); -- slow full-table scan

随着日志量的增长,这些查询会变得很慢。

一种解决方案是为 Map 的键和值创建文本索引。 当需要根据字段名称或属性类型查找日志时,使用 mapKeys 来创建文本索引:

ALTER TABLE logs ADD INDEX attributes_keys_idx mapKeys(attributes) TYPE text(tokenizer = array);
ALTER TABLE posts MATERIALIZE INDEX attributes_keys_idx;

当需要在属性的实际内容中进行搜索时,使用 mapValues 来创建文本索引:

ALTER TABLE logs ADD INDEX attributes_vals_idx mapValues(attributes) TYPE text(tokenizer = array);
ALTER TABLE posts MATERIALIZE INDEX attributes_vals_idx;

查询示例:

-- Find all rate-limited requests:
SELECT * FROM logs WHERE mapContainsKey(attributes, 'rate_limit'); -- fast

-- Finds all logs from a specific IP:
SELECT * FROM logs WHERE has(mapValues(attributes), '192.168.1.1'); -- fast

-- Finds all logs where any attribute includes an error:
SELECT * FROM logs WHERE mapContainsValueLike(attributes, '% error %'); -- fast

性能调优

直接读取

某些类型的文本查询可以通过一种名为“直接读取”的优化显著提升性能。

示例:

SELECT column_a, column_b, ...
FROM [...]
WHERE string_search_function(column_with_text_index)

ClickHouse 中的直接读取优化会仅使用文本索引来回答查询(即通过文本索引查找),而无需访问底层文本列。

文本索引查找读取的数据量相对较少,因此比 ClickHouse 中常规的 skip 索引快得多(后者会先执行 skip 索引查找,然后再加载并过滤剩余的数据颗粒 granules)。

直接读取由两个设置控制:

  • 设置 query_plan_direct_read_from_text_index(默认值为 true),用于指定是否全局启用直接读取。
  • 设置 use_skip_indexes_on_data_read,这是启用直接读取的另一个前提条件。在 ClickHouse 版本 >= 26.1 中,该设置默认启用。在更早的版本中,需要显式执行 SET use_skip_indexes_on_data_read = 1

此外,要使用直接读取,文本索引必须已完全物化(为此请使用 ALTER TABLE ... MATERIALIZE INDEX)。

支持的函数

直接读取优化支持函数 hasTokenhasAllTokenshasAnyTokens。 如果文本索引是使用 array tokenizer 定义的,直接读取同样支持函数 equalshasmapContainsKeymapContainsValue。 这些函数也可以通过 ANDORNOT 运算符组合使用。 WHEREPREWHERE 子句中还可以包含额外的非文本搜索函数过滤条件(针对文本列或其他列)——在这种情况下,仍然会使用直接读取优化,但效果会略差一些(它仅适用于受支持的文本搜索函数)。

要确认查询是否使用了直接读取,请使用 EXPLAIN PLAN actions = 1 来运行查询。 例如,一个禁用了直接读取的查询

EXPLAIN PLAN actions = 1
SELECT count()
FROM tab
WHERE hasToken(col, 'some_token')
SETTINGS query_plan_direct_read_from_text_index = 0, -- disable direct read
         use_skip_indexes_on_data_read = 1;

返回

[...]
Filter ((WHERE + Change column names to column identifiers))
Filter column: hasToken(__table1.col, 'some_token'_String) (removed)
Actions: INPUT : 0 -> col String : 0
         COLUMN Const(String) -> 'some_token'_String String : 1
         FUNCTION hasToken(col :: 0, 'some_token'_String :: 1) -> hasToken(__table1.col, 'some_token'_String) UInt8 : 2
[...]

而在将 query_plan_direct_read_from_text_index = 1 设置为 1 时运行相同的查询

EXPLAIN PLAN actions = 1
SELECT count()
FROM tab
WHERE hasToken(col, 'some_token')
SETTINGS query_plan_direct_read_from_text_index = 1, -- enable direct read
         use_skip_indexes_on_data_read = 1;

返回值

[...]
Expression (Before GROUP BY)
Positions:
  Filter
  Filter column: __text_index_idx_hasToken_94cc2a813036b453d84b6fb344a63ad3 (removed)
  Actions: INPUT :: 0 -> __text_index_idx_hasToken_94cc2a813036b453d84b6fb344a63ad3 UInt8 : 0
[...]

第二个 EXPLAIN PLAN 输出包含一个虚拟列 __text_index_<index_name>_<function_name>_<id>。 如果该列存在,则会使用 direct read。

如果 WHERE 过滤子句只包含文本搜索函数,则查询可以完全避免读取该列的数据,并通过 direct read 获得最大的性能收益。 不过,即使在查询的其他部分访问了该文本列,direct read 仍然可以带来性能提升。

Direct read 作为提示

Direct read 作为提示与普通 direct read 基于相同的原理,但会在不移除底层文本列的情况下,额外添加一个基于文本索引数据构建的过滤条件。 它用于那些如果只从文本索引中读取数据会产生误报的函数。

支持的函数有:likestartsWithendsWithequalshasmapContainsKeymapContainsValue

这个额外的过滤条件在与其他过滤条件组合使用时,可以提供更高的选择性,进一步收缩结果集,有助于减少从其他列读取的数据量。

Direct read 作为提示可以通过设置 query_plan_text_index_add_hint 来控制(默认启用)。

不使用提示的查询示例:

EXPLAIN actions = 1
SELECT count()
FROM tab
WHERE (col LIKE '%some-token%') AND (d >= today())
SETTINGS use_skip_indexes_on_data_read = 1, query_plan_text_index_add_hint = 0
FORMAT TSV

返回

[...]
Prewhere filter column: and(like(__table1.col, \'%some-token%\'_String), greaterOrEquals(__table1.d, _CAST(20440_Date, \'Date\'_String))) (removed)
[...]

而在将 query_plan_text_index_add_hint 设为 1 时运行相同的查询

EXPLAIN actions = 1
SELECT count()
FROM tab
WHERE col LIKE '%some-token%'
SETTINGS use_skip_indexes_on_data_read = 1, query_plan_text_index_add_hint = 1

返回

[...]
Prewhere filter column: and(__text_index_idx_col_like_d306f7c9c95238594618ac23eb7a3f74, like(__table1.col, \'%some-token%\'_String), greaterOrEquals(__table1.d, _CAST(20440_Date, \'Date\'_String))) (removed)
[...]

在第二个 EXPLAIN PLAN 输出中,你可以看到在过滤条件中被添加了一个额外的合取项(__text_index_...)。 得益于 PREWHERE 优化,过滤条件被拆分为三个独立的合取项,并按照计算复杂度从低到高的顺序依次应用。 对于这个查询,应用顺序是先 __text_index_...,然后是 greaterOrEquals(...),最后是 like(...)。 这种顺序使得在读取 WHERE 子句中使用的开销较大的列之前,就能在文本索引和原始过滤条件已经跳过的数据粒度基础上,进一步跳过更多数据粒度,从而减少需要读取的数据量。

缓存

有多种缓存可用于在内存中缓冲文本索引的部分内容(参见实现细节部分)。 当前,对文本索引的反序列化字典块、头部信息以及 posting lists(倒排列表)都提供了缓存,以减少 I/O。 可以通过以下 SETTING 启用这些缓存:use_text_index_dictionary_cacheuse_text_index_header_cacheuse_text_index_postings_cache。 默认情况下,所有缓存均为禁用状态。 要清除这些缓存,请使用语句 SYSTEM DROP TEXT INDEX CACHES

请参考以下服务端 SETTING 来配置这些缓存。

字典块缓存设置

设置说明
text_index_dictionary_block_cache_policy文本索引字典块缓存策略名称。
text_index_dictionary_block_cache_size最大缓存大小(以字节为单位)。
text_index_dictionary_block_cache_max_entries缓存中反序列化的字典块最大数量。
text_index_dictionary_block_cache_size_ratio文本索引字典块缓存中受保护队列相对于缓存总大小的比例。

头部缓存设置

Setting描述
text_index_header_cache_policy文本索引头部缓存策略名称。
text_index_header_cache_size最大缓存大小(字节)。
text_index_header_cache_max_entries缓存中反序列化头部的最大数量。
text_index_header_cache_size_ratio文本索引头部缓存中受保护队列占缓存总大小的比例。

Posting 列表缓存设置

SettingDescription
text_index_postings_cache_policy文本索引 posting 列表缓存策略的名称。
text_index_postings_cache_size最大缓存大小(以字节为单位)。
text_index_postings_cache_max_entries缓存中已反序列化 posting 的最大数量。
text_index_postings_cache_size_ratio文本索引 posting 列表缓存中受保护队列大小相对于缓存总大小的比例。

限制

当前文本索引具有以下限制:

  • 对包含大量 tokens(例如 100 亿 tokens)的文本索引进行物化时,可能会消耗大量内存。文本索引的物化可以直接进行(ALTER TABLE <table> MATERIALIZE INDEX <index>),也可以在分区片段合并时通过间接方式发生。
  • 无法在包含超过 4.294.967.296(= 2^32 ≈ 42 亿)行的分区片段上物化文本索引。如果没有物化的文本索引,查询会退回到在该分区片段内执行低效的暴力搜索。作为一种最坏情况的估算,假设某个分区片段只包含一个类型为 String 的列,并且 MergeTree 设置 max_bytes_to_merge_at_max_space_in_pool(默认值:150 GB)未被修改。在这种假设下,只要该列平均每行少于 29.5 个字符,就会出现上述情况。实际上,表中通常还包含其他列,因此阈值通常会小好几倍(具体取决于其他列的数量、类型和大小)。

Implementation Details

每个文本索引由两个(抽象的)数据结构组成:

  • 一个字典,将每个 token 映射到一个倒排列表(postings list),以及
  • 一组倒排列表,每个倒排列表表示一组行号。

文本索引是针对整个分区片段构建的。 与其他跳过索引不同,在合并数据分区片段时,文本索引可以通过合并来处理,而无需重新构建(见下文)。

在创建索引期间,会创建三个文件(每个分区片段一个):

Dictionary blocks file (.dct)

文本索引中的 token 会被排序,并以每 512 个 token 为一组存储到字典块中(块大小可通过参数 dictionary_block_size 配置)。 字典块文件(.dct)由某个分区片段内所有索引粒度(granule)的全部字典块组成。

Index header file (.idx)

索引头文件为每个字典块存储该块的第一个 token 以及它在字典块文件中的相对偏移量。

这种稀疏索引结构类似于 ClickHouse 的 稀疏主键索引

Postings lists file (.pst)

所有 token 的倒排列表按顺序存储在倒排列表文件(.pst)中。 为了节省空间,同时仍然支持快速的交集和并集操作,倒排列表以 roaring bitmaps 的形式存储。 如果某个倒排列表大于 posting_list_block_size,则会被拆分为多个块,并按顺序写入倒排列表文件。

Merging of text indexes

当数据分区片段被合并时,无需从头重建文本索引;相反,可以在合并流程的单独步骤中高效地对其进行合并。 在该步骤中,会读取并合并每个输入分区片段中文本索引的有序字典,生成一个新的统一字典。 倒排列表中的行号也会被重新计算,以反映它们在合并后数据分区片段中的新位置,这个过程使用在初始合并阶段创建的旧行号到新行号的映射。 这种合并文本索引的方法类似于带有 _part_offset 列的 projections 的合并方式。 如果源分区片段中索引尚未物化(materialized),则会先构建该索引,将其写入一个临时文件,然后与来自其他分区片段和其他临时索引文件的索引一起合并。

示例:Hacker News 数据集

我们来看一下在包含大量文本的大型数据集上,使用文本索引带来的性能提升。 我们将使用来自知名网站 Hacker News 的 2870 万行评论数据。 下面是未使用文本索引的表:

CREATE TABLE hackernews (
    id UInt64,
    deleted UInt8,
    type String,
    author String,
    timestamp DateTime,
    comment String,
    dead UInt8,
    parent UInt64,
    poll UInt64,
    children Array(UInt32),
    url String,
    score UInt32,
    title String,
    parts Array(UInt32),
    descendants UInt32
)
ENGINE = MergeTree
ORDER BY (type, author);

这 2870 万行数据位于 S3 上的一个 Parquet 文件中——让我们将它们插入到 hackernews 表中:

INSERT INTO hackernews
    SELECT * FROM s3Cluster(
        'default',
        'https://datasets-documentation.s3.eu-west-3.amazonaws.com/hackernews/hacknernews.parquet',
        'Parquet',
        '
    id UInt64,
    deleted UInt8,
    type String,
    by String,
    time DateTime,
    text String,
    dead UInt8,
    parent UInt64,
    poll UInt64,
    kids Array(UInt32),
    url String,
    score UInt32,
    title String,
    parts Array(UInt32),
    descendants UInt32');

我们将使用 ALTER TABLE,在评论列上添加一个文本索引,然后将其物化:

-- Add the index
ALTER TABLE hackernews ADD INDEX comment_idx(comment) TYPE text(tokenizer = splitByNonAlpha);

-- Materialize the index for existing data
ALTER TABLE hackernews MATERIALIZE INDEX comment_idx SETTINGS mutations_sync = 2;

现在,让我们运行一些使用 hasTokenhasAnyTokenshasAllTokens 函数的查询。 下面的示例将展示标准索引扫描与直接读取优化之间巨大的性能差异。

1. 使用 hasToken

hasToken 用于检查文本中是否包含某个特定的单个 token。 我们将在搜索中查找区分大小写的 token 'ClickHouse'。

禁用直接读取(标准扫描) 默认情况下,ClickHouse 使用跳过索引(skip index)来过滤 granule,然后读取这些 granule 的列数据。 我们可以通过禁用直接读取来模拟这种行为。

SELECT count()
FROM hackernews
WHERE hasToken(comment, 'ClickHouse')
SETTINGS query_plan_direct_read_from_text_index = 0, use_skip_indexes_on_data_read = 0;

┌─count()─┐
│     516 │
└─────────┘

1 row in set. Elapsed: 0.362 sec. Processed 24.90 million rows, 9.51 GB

已启用直接读取(快速索引读取) 现在我们在启用直接读取(默认启用)的情况下运行相同的查询。

SELECT count()
FROM hackernews
WHERE hasToken(comment, 'ClickHouse')
SETTINGS query_plan_direct_read_from_text_index = 1, use_skip_indexes_on_data_read = 1;

┌─count()─┐
│     516 │
└─────────┘

1 row in set. Elapsed: 0.008 sec. Processed 3.15 million rows, 3.15 MB

直接读取的查询速度快了 45 倍以上(0.362s 对比 0.008s),并且由于仅从索引中读取数据,处理的数据量大幅减少(9.51 GB 对比 3.15 MB)。

2. 使用 hasAnyTokens

hasAnyTokens 用于检查文本是否至少包含任意一个指定的 token。 我们将搜索包含 'love' 或 'ClickHouse' 的评论。

已禁用直接读取(标准扫描)

SELECT count()
FROM hackernews
WHERE hasAnyTokens(comment, 'love ClickHouse')
SETTINGS query_plan_direct_read_from_text_index = 0, use_skip_indexes_on_data_read = 0;

┌─count()─┐
│  408426 │
└─────────┘

1 row in set. Elapsed: 1.329 sec. Processed 28.74 million rows, 9.72 GB

已启用直接读取(快速索引读取)

SELECT count()
FROM hackernews
WHERE hasAnyTokens(comment, 'love ClickHouse')
SETTINGS query_plan_direct_read_from_text_index = 1, use_skip_indexes_on_data_read = 1;

┌─count()─┐
│  408426 │
└─────────┘

1 row in set. Elapsed: 0.015 sec. Processed 27.99 million rows, 27.99 MB

对于这种常见的“OR”搜索,加速效果更加显著。 通过避免对整列进行扫描,该查询速度提升了近 89 倍(1.329s vs 0.015s)。

3. 使用 hasAllTokens

hasAllTokens 会检查文本是否包含给定的所有 token。 我们将搜索同时包含 'love' 和 'ClickHouse' 的评论。

禁用直接读取(标准扫描) 即使禁用了直接读取,标准跳过索引依然有效。 它将 2870 万行过滤到仅 14.746 万行,但仍然必须从列中读取 57.03 MB 的数据。

SELECT count()
FROM hackernews
WHERE hasAllTokens(comment, 'love ClickHouse')
SETTINGS query_plan_direct_read_from_text_index = 0, use_skip_indexes_on_data_read = 0;

┌─count()─┐
│      11 │
└─────────┘

1 row in set. Elapsed: 0.184 sec. Processed 147.46 thousand rows, 57.03 MB

已启用直接读取(快速索引读取) 直接读取通过仅操作索引数据来完成该查询,只需读取 147.46 KB 的数据。

SELECT count()
FROM hackernews
WHERE hasAllTokens(comment, 'love ClickHouse')
SETTINGS query_plan_direct_read_from_text_index = 1, use_skip_indexes_on_data_read = 1;

┌─count()─┐
│      11 │
└─────────┘

1 row in set. Elapsed: 0.007 sec. Processed 147.46 thousand rows, 147.46 KB

对于这种“AND”搜索,直接读取优化比标准跳过索引的扫描快 26 倍以上(0.184 秒 vs 0.007 秒)。

直接读取优化同样适用于复合布尔表达式。 在这里,我们将执行对 'ClickHouse' 或 'clickhouse' 的不区分大小写的搜索。

已禁用直接读取(标准扫描)

SELECT count()
FROM hackernews
WHERE hasToken(comment, 'ClickHouse') OR hasToken(comment, 'clickhouse')
SETTINGS query_plan_direct_read_from_text_index = 0, use_skip_indexes_on_data_read = 0;

┌─count()─┐
│     769 │
└─────────┘

1 row in set. Elapsed: 0.450 sec. Processed 25.87 million rows, 9.58 GB

已启用直接读取(快速索引读取)

SELECT count()
FROM hackernews
WHERE hasToken(comment, 'ClickHouse') OR hasToken(comment, 'clickhouse')
SETTINGS query_plan_direct_read_from_text_index = 1, use_skip_indexes_on_data_read = 1;

┌─count()─┐
│     769 │
└─────────┘

1 row in set. Elapsed: 0.013 sec. Processed 25.87 million rows, 51.73 MB

通过结合索引过滤的结果,直接读取的查询快了 34 倍(0.450s 对比 0.013s),并且避免了读取 9.58 GB 的列数据。 对于这个特定场景,hasAnyTokens(comment, ['ClickHouse', 'clickhouse']) 将是更推荐使用的、更高效的写法。