LMStudio MCP

LMStudio MCP

LMStudio MCPは、Claude(MCPアクセスあり)とローカルで実行されるLM Studio言語モデル環境の間の橋渡しをするオープンソースのMCPサーバーです。これにより連携が可能になり、ClaudeはあなたのプライベートなローカルLLMsを利用してテキスト生成やモデル管理を行うことができます。Claudeの高度な機能と自己ホストされたモデルの柔軟性とプライバシーを組み合わせています。

Author: infinitimeless


プロトコルを表示

LMStudio MCPとは?

LMStudio MCPは、ClaudeとLM Studioが管理するローカルで実行される言語モデルを統合するために特別に設計されたモデルコンテキストプロトコル(MCP)サーバー実装です。これにより、Claudeはさまざまな操作(モデルのクエリ、補完の生成、モデルの状態管理など)をローカルインフラストラクチャを通じて直接実行できます。この設定により、Claudeの強みを独自またはプライベートモデルと組み合わせた強力なハイブリッド環境を構築できます。

LMStudio MCPの設定方法

  1. 前提条件:

    • LM Studioをインストールして起動し、少なくとも1つのモデルが読み込まれて実行中であること(通常はポート1234)。
    • Python 3.7以上が利用可能であるか、Docker環境を準備します。
    • ClaudeがMCPアクセスを有効にしている必要があります。
  2. インストール:

    • 推奨(ワンライインストール):
      curl -fsSL https://raw.githubusercontent.com/infinitimeless/LMStudio-MCP/main/install.sh | bash
      
    • 手動インストール(Python):
      git clone https://github.com/infinitimeless/LMStudio-MCP.git
      cd LMStudio-MCP
      pip install requests "mcp[cli]" openai
      
    • Docker:
      docker run -it --network host ghcr.io/infinitimeless/lmstudio-mcp:latest
      
    • Docker Compose:
      git clone https://github.com/infinitimeless/LMStudio-MCP.git
      cd LMStudio-MCP
      docker-compose up -d
      
  3. MCP設定:

    • ClaudeのためにMCP設定エントリを追加します。例:
      {
        "lmstudio-mcp": {
          "command": "uvx",
          "args": ["https://github.com/infinitimeless/LMStudio-MCP"]
        }
      }
      
    • または、提供されたDockerまたはPythonベースのスクリプトを適切なコマンド引数で使用します。
  4. リファレンス:

    • 高度なデプロイメントとトラブルシューティングについては、プロジェクトのMCP_CONFIGURATION.mdおよびDOCKER.mdを参照してください。

LMStudio MCPの使い方

  1. LM Studioを起動し、希望するモデルがデフォルトポート(1234)で読み込まれていることを確認します。
  2. LMStudio MCPを起動し、選んだインストール方法(ローカル、Dockerなど)を使用します。
  3. ClaudeにMCPを設定し、関連する設定スニペットを使用します。
  4. Claude経由で接続:
    • ClaudeがMCP接続を求めるとき、LMStudio MCPサーバーを選択します。
  5. 対話:
    • Claudeのインターフェースを使用してモデルをリスト表示し、アクティブなモデルをクエリしたり、あなたのローカルLLMsを使用して補完を生成します。
  6. 監視と管理:
    • LM Studioが動作しており、モデルにアクセスできる状態を維持して、シームレスな接続を確保します。

主な特徴

  • ローカル-リモートブリッジ: MCPプロトコルを介してClaudeを自分のローカル言語モデルに接続します。
  • ヘルスチェック: LM Studio APIの状態とアクセス可能性を迅速に確認します。
  • モデル発見: Claude内からLM Studioで利用可能なすべてのモデルをリスト表示し、クエリします。
  • シームレスなテキスト生成: プライベートモデルを使用して、Claudeのインターフェースを活用して補完を生成します。
  • 柔軟なデプロイ: 複数のインストールとデプロイオプション(ベアメタルPython、Docker、Compose、Kubernetes、またはGitHubホスト)があります。
  • プライバシーの強化: データはどのサードパーティのLLMプロバイダーにも送信されません。あなたの補完は完全にローカルです。
  • オープンソース&拡張可能: プロジェクトを自由に変更し、独自のユースケースのために貢献できます。

ユースケース

  • ハイブリッドLLM統合: Claudeの使いやすいインターフェースを使用して、ローカルで実行するカスタムまたは独自のモデルと対話し、両方の強みを活用します。
  • オンプレミスの安全なワークフロー: クラウドに依存せずに、ファイアウォール内または企業環境で補完を生成し、言語モデルを管理します。
  • テストと評価: 異なるローカルモデルを簡単にテスト、比較、切り替え、再設定の努力を最小限に抑えます。
  • 開発プロトタイピング: 開発者がClaudeとカスタムモデルを使用してエージェントワークフローを自動化、ベンチマーク、またはプロトタイプ化できるようにします。

よくある質問

Q1: なぜClaudeは私のLM Studio MCPサーバーに接続できないのですか?
A1: LM Studioが実行中で、デフォルトポート(1234)でリッスンしていること、およびモデルが読み込まれていることを確認してください。ファイアウォールやホストのネットワーク設定を確認し、「localhost」から「127.0.0.1」へのAPI URLの切り替えを試みてください。

Q2: 一部のモデルが応答しないか、予想外に動作します。どうすれば良いですか?
A2: 特定のモデルがLMStudio MCPが必要とするOpenAI互換APIプロトコルを完全には支持していない場合があります。他のモデルを試すか、temperaturemax_tokensなどのパラメータを調整してください。互換性のメモはドキュメントに記載されています。

Q3: LMStudio MCPを使用するためにインターネットアクセスは必要ですか?
A3: GitHubの直接オプションまたはDockerイメージを使用する場合のみ、インストール時に必要です。一度設定すれば、すべてのモデルの対話はローカルで、実行や補完にインターネットは必要ありません。

Q4: 開発や生産のためにコンテナ内でLMStudio MCPを実行できますか?
A4: はい、LMStudio MCPは公式のDockerイメージ、Docker Compose、およびKubernetesマニフェストを提供し、隔離されたスケーラブルなデプロイオプションを容易にします。