ClickHouse MCPサーバーをLibreChatで使用する
このガイドでは、Dockerを使用してClickHouse MCPサーバーをセットアップし、それをClickHouseのサンプルデータセットに接続する方法を説明します。
Dockerのインストール
LibreChatとMCPサーバーを実行するにはDockerが必要です。Dockerを入手するには:
- docker.com にアクセスする
- お使いのオペレーティングシステム用のDocker Desktopをダウンロードする
- お使いのオペレーティングシステムの手順に従ってDockerをインストールする
- Docker Desktopを開き、実行されていることを確認する
詳細については、Dockerのドキュメントを参照してください。
.envファイルの作成と編集
.env.example
から.env
に例の構成ファイルをコピーします:
お好きなテキストエディタで.env
ファイルを開きます。OpenAI、Anthropic、AWSベッドロックなど、多くの人気のあるLLMプロバイダーのセクションが表示されます。例えば:
user_provided
を使用したいLLMプロバイダーのAPIキーに置き換えてください。
APIキーを持っていない場合は、OllamaのようなローカルLLMを使用できます。これは後でステップ「"Ollamaのインストール"」で説明します。今のところ、.envファイルを修正せずに次のステップに進んでください。
DockerコンポーズにClickHouse MCPサーバーを追加する
次に、LLMがClickHouse SQLプレイグラウンドと対話できるように、LibreChat DockerコンポーズファイルにClickHouse MCPサーバーを追加します。
docker-compose.override.yml
というファイルを作成し、以下の構成を追加します:
自分のデータを探索したい場合は、独自のClickHouse Cloudサービスのホスト、ユーザー名、パスワードを使用して行うことができます。
librechat.yamlでMCPサーバーを構成する
librechat.yaml
ファイルを開き、ファイルの最後に次の構成を追加します:
これにより、LibreChatがDocker上で実行されているMCPサーバーに接続されるように構成されます。
次の行を見つけます:
簡素化のため、今のところ認証は不要にすることにします:
Ollamaを使用してローカルLLMを追加する(オプション)
Ollamaのインストール
Ollamaのウェブサイトにアクセスし、システム用のOllamaをインストールします。
インストールが完了したら、以下のようにモデルを実行できます:
これにより、モデルがローカルマシンに存在しない場合はダウンロードされます。
モデルのリストについては、Ollamaライブラリを参照してください。
librechat.yamlでOllamaを構成する
モデルがダウンロードされたら、librechat.yaml
でそれを構成します:
ブラウザでLibreChatを開く
すべてのサービスが起動したら、ブラウザを開き、http://localhost:3080/
に移動します。
まだLibreChatアカウントを持っていない場合は、無料のLibreChatアカウントを作成し、サインインします。これで、ClickHouse MCPサーバーに接続されたLibreChatインターフェースが表示され、オプションでローカルLLMも表示されます。
チャットインターフェースから、MCPサーバーとしてclickhouse-playground
を選択します:

これで、LLMにClickHouseのサンプルデータセットを探索するように促すことができます。試してみてください: