使用 ClickHouse MCP 服务器与 Ollama
本指南介绍如何使用 ClickHouse MCP 服务器与 Ollama。
安装 Ollama
Ollama is a library for running Large Language Models (LLMs) on your own machine. 它提供多种可用模型且易于使用。
您可以从下载页面下载适用于 Mac、Windows 或 Linux 的 Ollama。
运行 Ollama 后,它将在后台启动一个本地服务器,您可以使用该服务器运行模型。
或者,您可以通过运行 ollama serve 手动启动服务器。
安装完成后,可以通过以下方式将模型拉取到您的机器上:
如果模型不存在,此命令将把模型拉取到本地机器。 下载完成后,可以像这样运行模型:
只有支持工具的模型才能与 MCP 服务器配合使用。
可以通过以下方式列出已下载的模型:
可以使用以下命令查看已下载模型的更多信息:
从此输出可以看出,默认的 qwen3 模型有略超过 80 亿个参数。
配置 ClickHouse MCP 服务器
可以使用 YAML 或 JSON 文件在 MCPHost 中配置 MCP 服务器。 MCPHost 将按以下顺序在主目录中查找配置文件:
.mcphost.yml或.mcphost.json(首选).mcp.yml或.mcp.json(用于向后兼容)
它使用的语法与标准 MCP 配置文件中使用的语法类似。
以下是 ClickHouse MCP 服务器配置示例,我们将其保存到 ~/.mcphost.json 文件中:
与标准 MCP 配置文件的主要区别在于需要指定 type 参数。
该类型用于指示 MCP 服务器使用的传输类型。
local→ 标准输入输出(stdio)传输remote→ 支持流式传输的远程通道builtin→ 进程内传输
我们还需要配置以下环境变量:
理论上,您应该能够在 MCP 配置文件的 environment 键下提供这些变量,但我们发现这种方式无法正常工作。
运行 MCPHost
配置好 ClickHouse MCP 服务器后,可以通过运行以下命令来运行 MCPHost:
或者,如果您希望使用特定的配置文件:
如果您不提供 --model 参数,MCPHost 将在环境变量中查找 ANTHROPIC_API_KEY 并使用 anthropic:claude-sonnet-4-20250514 模型。
应该会看到以下输出:
可以使用 /servers 命令列出 MCP 服务器:
使用 /tools 命令列出可用的工具:
然后可以向模型询问有关 ClickHouse SQL 演练场中可用数据库/表的问题。
根据我们的经验,使用较小的模型时(默认的 qwen3 模型有 80 亿个参数),您需要更明确地说明希望它执行的操作。 例如,您需要明确要求它列出数据库和表,而不是直接要求它查询某个表。 您可以通过使用更大的模型(例如 qwen3:14b)来部分缓解此问题,但在消费级硬件上运行速度会更慢。