LMStudio MCP

LMStudio MCP

LMStudio MCP es un servidor MCP de código abierto que actúa como un puente entre Claude (con acceso MCP) y tu entorno de modelo de lenguaje LM Studio ejecutándose localmente. Permite una comunicación fluida, lo que permite a Claude utilizar tus propios LLMs locales privados para tareas como la generación de texto y la gestión de modelos, combinando las capacidades avanzadas de Claude con la flexibilidad y privacidad de los modelos autohospedados.

Author: infinitimeless


Ver Protocolo

¿Qué es LMStudio MCP?

LMStudio MCP es una implementación del Protocolo de Contexto de Modelo (MCP) diseñada específicamente para integrar Claude con modelos de lenguaje que se ejecutan localmente y son gestionados por LM Studio. Proporciona una interfaz de protocolo estandarizada que permite a Claude realizar diversas acciones, como consultar modelos, generar completaciones y gestionar el estado del modelo, directamente a través de tu infraestructura local. Esta configuración crea un poderoso entorno híbrido, donde puedes combinar las fortalezas de Claude con modelos personalizados o privados que se ejecutan en tu propio hardware.

Cómo configurar LMStudio MCP

  1. Requisitos previos:

    • Instala y ejecuta LM Studio, con al menos un modelo cargado y funcionando (típicamente en el puerto 1234).
    • Asegúrate de que Python 3.7 o superior esté disponible, o prepara un entorno Docker.
    • Claude debe tener habilitado el acceso MCP.
  2. Instalación:

    • Recomendado (instalación en una línea):
      curl -fsSL https://raw.githubusercontent.com/infinitimeless/LMStudio-MCP/main/install.sh | bash
      
    • Instalación manual (Python):
      git clone https://github.com/infinitimeless/LMStudio-MCP.git
      cd LMStudio-MCP
      pip install requests "mcp[cli]" openai
      
    • Docker:
      docker run -it --network host ghcr.io/infinitimeless/lmstudio-mcp:latest
      
    • Docker Compose:
      git clone https://github.com/infinitimeless/LMStudio-MCP.git
      cd LMStudio-MCP
      docker-compose up -d
      
  3. Configuración de MCP:

    • Para Claude, añade una entrada de configuración MCP. Por ejemplo:
      {
        "lmstudio-mcp": {
          "command": "uvx",
          "args": ["https://github.com/infinitimeless/LMStudio-MCP"]
        }
      }
      
    • Alternativamente, usa los scripts proporcionados en Docker o Python con los argumentos de comando apropiados.
  4. Referencia:

Cómo usar LMStudio MCP

  1. Inicia LM Studio y asegúrate de que tu modelo deseado esté cargado en el puerto predeterminado (1234).
  2. Lanza LMStudio MCP usando el método de instalación que elijas (local, Docker, etc.).
  3. Configura Claude con MCP utilizando el fragmento de configuración relevante.
  4. Conéctate a través de Claude:
    • Cuando Claude te pida la conexión MCP, selecciona el servidor LMStudio MCP.
  5. Interactúa:
    • Usa la interfaz de Claude para listar modelos, consultar el modelo activo o generar completaciones con tus propios LLMs locales.
  6. Monitorea y Mantén:
    • Asegúrate de que LM Studio siga ejecutándose y que los modelos sean accesibles para mantener una conexión fluida.

Características clave

  • Puente local-remoto: Conecta Claude a tus propios modelos de lenguaje locales a través del protocolo MCP.
  • Verificación de estado: Verifica rápidamente el estado y accesibilidad de tu API de LM Studio.
  • Descubrimiento de modelos: Lista y consulta todos los modelos disponibles en LM Studio desde Claude.
  • Generación de texto sin interrupciones: Genera completaciones usando tus modelos privados, aprovechando la interfaz de Claude.
  • Implementación flexible: Varias opciones de instalación e implementación (Python baremetal, Docker, Compose, Kubernetes o alojados en GitHub).
  • Privacidad mejorada: No se envía ningún dato a ningún proveedor de LLM de terceros, tus completaciones son completamente locales.
  • Código abierto y extensible: Modifica libremente y contribuye al proyecto para casos de uso personalizados.

Casos de uso

  • Integración de LLM híbrido: Usa la interfaz fácil de usar de Claude para interactuar con modelos personalizados o propietarios que ejecutas localmente, beneficiándote de las fortalezas de ambos.
  • Flujos de trabajo seguros en las instalaciones: Genera completaciones y gestiona modelos de lenguaje dentro de un entorno empresarial o con cortafuegos, sin depender de la nube.
  • Pruebas y evaluación: Prueba, compara y cambia fácilmente entre diferentes modelos locales con un esfuerzo mínimo de reconfiguración.
  • Prototipado de desarrollo: Permite a los desarrolladores automatizar, evaluar o prototipar flujos de trabajo de agentes utilizando tanto Claude como modelos personalizados.

Preguntas frecuentes

P1: ¿Por qué Claude no puede conectarse a mi servidor LM Studio MCP?
A1: Asegúrate de que LM Studio esté funcionando y escuchando en el puerto predeterminado (1234), y que haya un modelo cargado. Verifica la configuración del cortafuegos o de la red del host, y prueba cambiar las URL de la API de "localhost" a "127.0.0.1".

P2: Algunos modelos no responden o se comportan de manera inesperada, ¿qué debo hacer?
A2: Ciertos modelos pueden no ser completamente compatibles con el protocolo de API compatible con OpenAI requerido por LMStudio MCP. Prueba diferentes modelos o ajusta parámetros como temperature y max_tokens. Consulta las notas de compatibilidad en la documentación.

P3: ¿Se requiere acceso a Internet para usar LMStudio MCP?
A3: Solo para la instalación si usas las opciones directas de GitHub o la imagen de Docker. Una vez configurado, todas las interacciones con el modelo son locales y no se requiere Internet para la ejecución o completaciones del modelo.

P4: ¿Puedo ejecutar LMStudio MCP dentro de un contenedor para desarrollo o producción?
A4: Sí, LMStudio MCP proporciona imágenes oficiales de Docker, Docker Compose y manifiestos de Kubernetes para facilitar opciones de implementación aisladas y escalables.