system.dead_letter_queue
包含通过流处理引擎接收并解析错误的消息信息。目前针对 Kafka 和 RabbitMQ 实现。
通过为引擎特定的 handle_error_mode
设置指定 dead_letter_queue
来启用日志记录。
数据的刷新周期在 dead_letter_queue 服务器设置部分的 flush_interval_milliseconds
参数中设置。要强制刷新,请使用 SYSTEM FLUSH LOGS 查询。
ClickHouse 不会自动删除表中的数据。更多详细信息请参见 Introduction。
列:
table_engine
(Enum8) - 流类型。可能的值:Kafka
和RabbitMQ
。event_date
(Date) - 消息消费日期。event_time
(DateTime) - 消息消费的日期和时间。event_time_microseconds
(DateTime64) - 消息消费时间,具有微秒精度。database
(LowCardinality(String)) - 流表所属的 ClickHouse 数据库。table
(LowCardinality(String)) - ClickHouse 表名。error
(String) - 错误文本。raw_message
(String) - 消息正文。kafka_topic_name
(String) - Kafka 主题名称。kafka_partition
(UInt64) - 主题的 Kafka 分区。kafka_offset
(UInt64) - 消息的 Kafka 偏移量。kafka_key
(String) - 消息的 Kafka 键。rabbitmq_exchange_name
(String) - RabbitMQ 交换名称。rabbitmq_message_id
(String) - RabbitMQ 消息 ID。rabbitmq_message_timestamp
(DateTime) - RabbitMQ 消息时间戳。rabbitmq_message_redelivered
(UInt8) - RabbitMQ 重新投递标志。rabbitmq_message_delivery_tag
(UInt64) - RabbitMQ 投递标签。rabbitmq_channel_id
(String) - RabbitMQ 通道 ID。
示例
查询:
结果:
另请参阅
- Kafka - Kafka 引擎
- system.kafka_consumers — 描述
kafka_consumers
系统表的信息,该表包含有关 Kafka 消费者的统计和错误信息。