跳到主要内容
跳到主要内容

system.asynchronous_insert_log

在 ClickHouse Cloud 中查询

此系统表中的数据在 ClickHouse Cloud 中的每个节点上本地保存。因此,要获得所有数据的完整视图,需要使用 clusterAllReplicas 函数。有关进一步的详细信息,请参见 这里

包含有关异步插入的信息。每个条目代表一个缓冲到异步插入查询的插入查询。

要开始记录,请在 asynchronous_insert_log 部分配置参数。

数据的冲刷周期在 asynchronous_insert_log 服务器设置部分的 flush_interval_milliseconds 参数中设置。要强制冲刷,请使用 SYSTEM FLUSH LOGS 查询。

ClickHouse 不会自动删除表中的数据。有关更多详细信息,请参见 Introduction

列:

  • hostname (LowCardinality(String)) — 执行查询的服务器的主机名。
  • event_date (Date) — 异步插入发生的日期。
  • event_time (DateTime) — 异步插入完成执行的日期和时间。
  • event_time_microseconds (DateTime64) — 异步插入完成执行的日期和时间,精确到微秒。
  • query (String) — 查询字符串。
  • database (String) — 表所在数据库的名称。
  • table (String) — 表名。
  • format (String) — 格式名称。
  • query_id (String) — 初始查询的 ID。
  • bytes (UInt64) — 插入的字节数。
  • exception (String) — 异常消息。
  • status (Enum8) — 视图的状态。值:
    • 'Ok' = 1 — 插入成功。
    • 'ParsingError' = 2 — 解析数据时发生异常。
    • 'FlushError' = 3 — 冲刷数据时发生异常。
  • flush_time (DateTime) — 冲刷发生的日期和时间。
  • flush_time_microseconds (DateTime64) — 冲刷发生的日期和时间,精确到微秒。
  • flush_query_id (String) — 冲刷查询的 ID。

示例

查询:

SELECT * FROM system.asynchronous_insert_log LIMIT 1 \G;

结果:

hostname:                clickhouse.eu-central1.internal
event_date:              2023-06-08
event_time:              2023-06-08 10:08:53
event_time_microseconds: 2023-06-08 10:08:53.199516
query:                   INSERT INTO public.data_guess (user_id, datasource_id, timestamp, path, type, num, str) FORMAT CSV
database:                public
table:                   data_guess
format:                  CSV
query_id:                b46cd4c4-0269-4d0b-99f5-d27668c6102e
bytes:                   133223
exception:
status:                  Ok
flush_time:              2023-06-08 10:08:55
flush_time_microseconds: 2023-06-08 10:08:55.139676
flush_query_id:          cd2c1e43-83f5-49dc-92e4-2fbc7f8d3716

另见