ClickHouse MCPサーバーをLibreChatで使用する
このガイドでは、Dockerを使用してClickHouse MCPサーバーをセットアップし、それをClickHouseのサンプルデータセットに接続する方法を説明します。
Dockerのインストール
LibreChatとMCPサーバーを実行するにはDockerが必要です。Dockerを入手するには:
- docker.com にアクセスする
- お使いのオペレーティングシステム用のDocker Desktopをダウンロードする
- お使いのオペレーティングシステムの手順に従ってDockerをインストールする
- Docker Desktopを開き、実行されていることを確認する
詳細については、Dockerのドキュメントを参照してください。
.envファイルの作成と編集
.env.exampleから.envに例の構成ファイルをコピーします:
お好きなテキストエディタで.envファイルを開きます。OpenAI、Anthropic、AWSベッドロックなど、多くの人気のあるLLMプロバイダーのセクションが表示されます。例えば:
user_providedを使用したいLLMプロバイダーのAPIキーに置き換えてください。
APIキーを持っていない場合は、OllamaのようなローカルLLMを使用できます。これは後でステップ「"Ollamaのインストール"」で説明します。今のところ、.envファイルを修正せずに次のステップに進んでください。
DockerコンポーズにClickHouse MCPサーバーを追加する
次に、LLMがClickHouse SQLプレイグラウンドと対話できるように、LibreChat DockerコンポーズファイルにClickHouse MCPサーバーを追加します。
docker-compose.override.ymlというファイルを作成し、以下の構成を追加します:
自分のデータを探索したい場合は、独自のClickHouse Cloudサービスのホスト、ユーザー名、パスワードを使用して行うことができます。
librechat.yamlでMCPサーバーを構成する
librechat.yamlファイルを開き、ファイルの最後に次の構成を追加します:
これにより、LibreChatがDocker上で実行されているMCPサーバーに接続されるように構成されます。
次の行を見つけます:
簡素化のため、今のところ認証は不要にすることにします:
Ollamaを使用してローカルLLMを追加する(オプション)
Ollamaのインストール
Ollamaのウェブサイトにアクセスし、システム用のOllamaをインストールします。
インストールが完了したら、以下のようにモデルを実行できます:
これにより、モデルがローカルマシンに存在しない場合はダウンロードされます。
モデルのリストについては、Ollamaライブラリを参照してください。
librechat.yamlでOllamaを構成する
モデルがダウンロードされたら、librechat.yamlでそれを構成します:
ブラウザでLibreChatを開く
すべてのサービスが起動したら、ブラウザを開き、http://localhost:3080/に移動します。
まだLibreChatアカウントを持っていない場合は、無料のLibreChatアカウントを作成し、サインインします。これで、ClickHouse MCPサーバーに接続されたLibreChatインターフェースが表示され、オプションでローカルLLMも表示されます。
チャットインターフェースから、MCPサーバーとしてclickhouse-playgroundを選択します:

これで、LLMにClickHouseのサンプルデータセットを探索するように促すことができます。試してみてください: