使用 ClickHouse MCP 服务器与 LibreChat
本指南解释了如何使用 Docker 设置 LibreChat 和 ClickHouse MCP 服务器,并将其连接到 ClickHouse 示例数据集。
安装 Docker
您需要 Docker 来运行 LibreChat 和 MCP 服务器。要获取 Docker:
- 访问 docker.com
- 下载适用于您的操作系统的 Docker desktop
- 按照操作系统的说明安装 Docker
- 打开 Docker Desktop 并确保其正在运行
有关更多信息,请参见 Docker 文档。
创建并编辑 .env 文件
从 .env.example
复制示例配置文件到 .env
:
在您喜欢的文本编辑器中打开 .env
文件。您将看到许多流行 LLM 提供者的部分,包括 OpenAI、Anthropic、AWS bedrock 等,例如:
用您的 LLM 提供者的 API 密钥替换 user_provided
。
如果您没有 API 密钥,可以使用本地 LLM,例如 Ollama。稍后您将看到如何执行此操作,步骤为 "安装 Ollama"。现在不要修改 .env 文件,继续下一步。
将 ClickHouse MCP 服务器添加到 Docker compose
接下来,我们将 ClickHouse MCP 服务器添加到 LibreChat Docker compose 文件中,以便 LLM 可以与 ClickHouse SQL playground 进行交互。
创建一个名为 docker-compose.override.yml
的文件,并将以下配置添加到其中:
如果您想探索自己的数据,可以使用 您自己的 ClickHouse Cloud 服务的主机、用户名和密码。
在 librechat.yaml 中配置 MCP 服务器
打开 librechat.yaml
并在文件末尾放置以下配置:
这将配置 LibreChat 连接到运行在 Docker 上的 MCP 服务器。
找到以下行:
为了简化起见,我们暂时移除身份验证的要求:
使用 Ollama 添加本地 LLM(可选)
安装 Ollama
访问 Ollama 网站,并为您的系统安装 Ollama。
安装完成后,您可以这样运行一个模型:
如果模型尚不存在,这将把模型拉取到您的本地机器。
有关模型的列表,请参见 Ollama library。
在 librechat.yaml 中配置 Ollama
一旦模型下载完成,在 librechat.yaml
中配置它:
在浏览器中打开 LibreChat
一旦所有服务都已启动并运行,打开浏览器并访问 http://localhost:3080/
如果您还没有账户,请创建一个免费的 LibreChat 账户并登录。您现在应该 看到连接到 ClickHouse MCP 服务器的 LibreChat 界面,另外,还可以连接您的本地 LLM。
在聊天界面中,选择 clickhouse-playground
作为您的 MCP 服务器:

您现在可以提示 LLM 探索 ClickHouse 示例数据集。试试吧: