LMStudio MCP

LMStudio MCP

LMStudio MCP est un serveur MCP open-source qui fait le lien entre Claude (avec accès MCP) et votre environnement de modèle de langage LM Studio en local. Il permet une communication fluide, permettant à Claude d'utiliser vos propres LLM privés locaux pour des tâches comme la génération de texte et la gestion de modèles. Cela combine les capacités avancées de Claude avec la flexibilité et la confidentialité des modèles auto-hébergés.

Author: infinitimeless


Voir le Protocole

Qu'est-ce que LMStudio MCP ?

LMStudio MCP est une implémentation de serveur du Modèle de Contexte de Protocole (MCP) conçue spécifiquement pour intégrer Claude avec des modèles de langage fonctionnant localement, gérés par LM Studio. Il fournit une interface de protocole standardisée qui permet à Claude d'effectuer diverses actions, comme interroger des modèles, générer des complétions et gérer l'état des modèles, directement via votre infrastructure locale. Cette configuration crée un environnement hybride puissant, où vous pouvez combiner les forces de Claude avec des modèles personnalisés ou privés fonctionnant sur votre propre matériel.

Comment configurer LMStudio MCP

  1. Prérequis :

    • Installez et lancez LM Studio, avec au moins un modèle chargé et fonctionnant (généralement sur le port 1234).
    • Assurez-vous que Python 3.7+ est disponible, ou préparez un environnement Docker.
    • Claude doit avoir l'accès MCP activé.
  2. Installation :

    • Recommandé (installation en une ligne) :
      curl -fsSL https://raw.githubusercontent.com/infinitimeless/LMStudio-MCP/main/install.sh | bash
      
    • Installation manuelle (Python) :
      git clone https://github.com/infinitimeless/LMStudio-MCP.git
      cd LMStudio-MCP
      pip install requests "mcp[cli]" openai
      
    • Docker :
      docker run -it --network host ghcr.io/infinitimeless/lmstudio-mcp:latest
      
    • Docker Compose :
      git clone https://github.com/infinitimeless/LMStudio-MCP.git
      cd LMStudio-MCP
      docker-compose up -d
      
  3. Configuration MCP :

    • Pour Claude, ajoutez une entrée de configuration MCP. Par exemple :
      {
        "lmstudio-mcp": {
          "command": "uvx",
          "args": ["https://github.com/infinitimeless/LMStudio-MCP"]
        }
      }
      
    • Sinon, utilisez les scripts fournis en Docker ou en Python avec les arguments de commande appropriés.
  4. Référence :

Comment utiliser LMStudio MCP

  1. Démarrez LM Studio et assurez-vous que votre modèle souhaité est chargé sur le port par défaut (1234).
  2. Lancez LMStudio MCP en utilisant votre méthode d'installation choisie (locale, Docker, etc.).
  3. Configurez Claude avec MCP en utilisant le snippet de configuration approprié.
  4. Connectez-vous via Claude :
    • Lorsque Claude vous demande de vous connecter au MCP, sélectionnez le serveur LMStudio MCP.
  5. Interagissez :
    • Utilisez l'interface de Claude pour lister les modèles, interroger le modèle actif ou générer des complétions en utilisant vos propres LLM locaux.
  6. Surveillez et maintenez :
    • Assurez-vous que LM Studio reste en cours d'exécution et que les modèles sont accessibles pour maintenir une connexion fluide.

Fonctionnalités clés

  • Pont Local-Distant : Connectez Claude à vos propres modèles de langage locaux via le protocole MCP.
  • Vérification de la santé : Vérifiez rapidement l'état et l'accessibilité de votre API LM Studio.
  • Découverte de modèles : Listez et interrogez tous les modèles disponibles dans LM Studio depuis Claude.
  • Génération de texte fluide : Générez des complétions en utilisant vos modèles privés, en exploitant l'interface de Claude.
  • Déploiement flexible : Plusieurs options d'installation et de déploiement (baremetal Python, Docker, Compose, Kubernetes, ou hébergés sur GitHub).
  • Confidentialité améliorée : Aucune donnée n'est envoyée à un fournisseur de LLM tiers. Vos complétions sont entièrement locales.
  • Open Source et extensible : Modifiez et contribuez librement au projet pour des cas d'utilisation personnalisés.

Cas d'utilisation

  • Intégration hybride de LLM : Utilisez l'interface conviviale de Claude pour interagir avec des modèles personnalisés ou propriétaires que vous exécutez localement, tirant parti des forces des deux.
  • Flux de travail sécurisés sur site : Générez des complétions et gérez des modèles de langage dans un environnement protégé ou d'entreprise sans dépendance au cloud.
  • Tests et évaluation : Testez facilement, comparez et changez entre différents modèles locaux avec un effort de reconfiguration minimal.
  • Prototypage de développement : Permettez aux développeurs d'automatiser, de mesurer ou de prototyper des flux de travail d'agent en utilisant à la fois Claude et des modèles personnalisés.

FAQ

Q1 : Pourquoi Claude ne peut-il pas se connecter à mon serveur LM Studio MCP ?
A1 : Assurez-vous que LM Studio fonctionne et écoute sur le port par défaut (1234), et qu'un modèle est chargé. Vérifiez les paramètres de pare-feu ou de réseau de l'hôte, et essayez de changer les URL de l'API de "localhost" à "127.0.0.1".

Q2 : Certains modèles ne répondent pas ou se comportent de manière inattendue. Que dois-je faire ?
A2 : Certains modèles peuvent ne pas prendre entièrement en charge le protocole API compatible OpenAI requis par LMStudio MCP. Essayez différents modèles ou ajustez des paramètres comme temperature et max_tokens. Consultez les notes de compatibilité dans la documentation.

Q3 : Un accès Internet est-il requis pour utiliser LMStudio MCP ?
A3 : Un accès Internet est seulement nécessaire pour l'installation si vous utilisez les options GitHub directes ou images Docker. Une fois configuré, toutes les interactions de modèle sont locales, et aucune connexion Internet n'est requise pour l'exécution ou les complétions des modèles.

Q4 : Puis-je exécuter LMStudio MCP dans un conteneur pour le développement ou la production ?
A4 : Oui, LMStudio MCP fournit des images Docker officielles, Docker Compose, et des manifestes Kubernetes pour faciliter les options de déploiement isolées et évolutives.