system.dead_letter_queue
包含通过流处理引擎接收并解析错误的消息信息。目前针对 Kafka 和 RabbitMQ 实现。
通过为引擎特定的 handle_error_mode 设置指定 dead_letter_queue 来启用日志记录。
数据的刷新周期在 dead_letter_queue 服务器设置部分的 flush_interval_milliseconds 参数中设置。要强制刷新,请使用 SYSTEM FLUSH LOGS 查询。
ClickHouse 不会自动删除表中的数据。更多详细信息请参见 Introduction。
列:
table_engine(Enum8) - 流类型。可能的值:Kafka和RabbitMQ。event_date(Date) - 消息消费日期。event_time(DateTime) - 消息消费的日期和时间。event_time_microseconds(DateTime64) - 消息消费时间,具有微秒精度。database(LowCardinality(String)) - 流表所属的 ClickHouse 数据库。table(LowCardinality(String)) - ClickHouse 表名。error(String) - 错误文本。raw_message(String) - 消息正文。kafka_topic_name(String) - Kafka 主题名称。kafka_partition(UInt64) - 主题的 Kafka 分区。kafka_offset(UInt64) - 消息的 Kafka 偏移量。kafka_key(String) - 消息的 Kafka 键。rabbitmq_exchange_name(String) - RabbitMQ 交换名称。rabbitmq_message_id(String) - RabbitMQ 消息 ID。rabbitmq_message_timestamp(DateTime) - RabbitMQ 消息时间戳。rabbitmq_message_redelivered(UInt8) - RabbitMQ 重新投递标志。rabbitmq_message_delivery_tag(UInt64) - RabbitMQ 投递标签。rabbitmq_channel_id(String) - RabbitMQ 通道 ID。
示例
查询:
结果:
另请参阅
- Kafka - Kafka 引擎
- system.kafka_consumers — 描述
kafka_consumers系统表的信息,该表包含有关 Kafka 消费者的统计和错误信息。