LMStudio MCP

LMStudio MCP

LMStudio MCP é um servidor MCP de código aberto que funciona como uma ponte entre o Claude (com acesso MCP) e seu ambiente de modelo de linguagem LM Studio em execução localmente. Ele permite uma comunicação fluida, permitindo que o Claude utilize seus próprios LLMs locais para tarefas como geração de texto e gestão de modelos. Assim, combina as capacidades avançadas do Claude com a flexibilidade e privacidade de modelos auto-hospedados.

Author: infinitimeless


Ver Protocolo

O que é o LMStudio MCP?

LMStudio MCP é uma implementação de servidor do Protocolo de Contexto de Modelo (MCP) projetada especificamente para integrar Claude com modelos de linguagem que estão sendo executados localmente e gerenciados pelo LM Studio. Ele fornece uma interface de protocolo padronizada que permite ao Claude realizar várias ações, como consultar modelos, gerar conclusões e gerenciar o estado do modelo, diretamente através da sua infraestrutura local. Essa configuração cria um ambiente híbrido poderoso, onde você pode combinar as forças do Claude com modelos personalizados ou privados executados em seu próprio hardware.

Como Configurar o LMStudio MCP

  1. Pré-requisitos:

    • Instale e inicie o LM Studio, com pelo menos um modelo carregado e em execução (normalmente na porta 1234).
    • Certifique-se de que o Python 3.7+ está disponível, ou prepare um ambiente Docker.
    • O Claude deve ter acesso MCP habilitado.
  2. Instalação:

    • Recomendado (instalação em uma linha):
      curl -fsSL https://raw.githubusercontent.com/infinitimeless/LMStudio-MCP/main/install.sh | bash
      
    • Instalação Manual (Python):
      git clone https://github.com/infinitimeless/LMStudio-MCP.git
      cd LMStudio-MCP
      pip install requests "mcp[cli]" openai
      
    • Docker:
      docker run -it --network host ghcr.io/infinitimeless/lmstudio-mcp:latest
      
    • Docker Compose:
      git clone https://github.com/infinitimeless/LMStudio-MCP.git
      cd LMStudio-MCP
      docker-compose up -d
      
  3. Configuração do MCP:

    • Para o Claude, adicione uma entrada de configuração MCP. Por exemplo:
      {
        "lmstudio-mcp": {
          "command": "uvx",
          "args": ["https://github.com/infinitimeless/LMStudio-MCP"]
        }
      }
      
    • Alternativamente, use os scripts fornecidos em docker ou baseados em Python com os argumentos de comando apropriados.
  4. Referência:

Como Usar o LMStudio MCP

  1. Inicie o LM Studio e certifique-se de que seu modelo desejado está carregado na porta padrão (1234).
  2. Inicie o LMStudio MCP usando o método de instalação escolhido (local, Docker, etc.).
  3. Configure o Claude com MCP usando o trecho de configuração relevante.
  4. Conecte-se via Claude:
    • Quando o Claude solicitar a conexão MCP, selecione o servidor LMStudio MCP.
  5. Interaja:
    • Use a interface do Claude para listar modelos, consultar o modelo ativo ou gerar conclusões usando seus próprios LLMs locais.
  6. Monitore e Mantenha:
    • Garanta que o LM Studio permaneça em execução e os modelos estejam acessíveis para manter uma conexão sem interrupções.

Principais Recursos

  • Conexão Local-Remota: Conecte o Claude aos seus próprios modelos de linguagem locais via protocolo MCP.
  • Verificação de Saúde: Verifique rapidamente o status e a acessibilidade da sua API do LM Studio.
  • Descoberta de Modelos: Liste e consulte todos os modelos disponíveis no LM Studio a partir do Claude.
  • Geração de Texto Sem Interrupções: Geração de conclusões usando seus modelos privados, aproveitando a interface do Claude.
  • Implantação Flexível: Múltiplas opções de instalação e implantação (baremetal Python, Docker, Compose, Kubernetes ou hospedagem no GitHub).
  • Privacidade Aprimorada: Nenhum dado é enviado para provedores de LLM de terceiros — suas conclusões são totalmente locais.
  • Código Aberto e Extensível: Modifique livremente e contribua para o projeto para casos de uso personalizados.

Casos de Uso

  • Integração Híbrida de LLM: Use a interface amigável do Claude para interagir com modelos personalizados que você executa localmente, aproveitando as forças de ambos.
  • Fluxos de Trabalho Seguros no Local: Gere conclusões e gerencie modelos de linguagem dentro de um ambiente protegido ou corporativo sem depender da nuvem.
  • Teste e Avaliação: Teste, compare e mude entre diferentes modelos locais com esforço mínimo de reconfiguração.
  • Prototipagem de Desenvolvimento: Permita que desenvolvedores automatizem, benchmarkem ou prototipem fluxos de trabalho de agentes usando tanto o Claude quanto modelos personalizados.

FAQ

Q1: Por que o Claude não consegue se conectar ao meu servidor LM Studio MCP?
A1: Verifique se o LM Studio está em execução e ouvindo na porta padrão (1234), e se um modelo está carregado. Verifique configurações de firewall ou rede do host e tente mudar as URLs da API de "localhost" para "127.0.0.1".

Q2: Alguns modelos não respondem ou se comportam de forma inesperada — o que devo fazer?
A2: Certos modelos podem não suportar totalmente o protocolo de API compatível com o OpenAI exigido pelo LMStudio MCP. Tente modelos diferentes ou ajuste parâmetros como temperature e max_tokens. Confira as notas de compatibilidade na documentação.

Q3: O acesso à internet é necessário para usar o LMStudio MCP?
A3: Apenas para a instalação, se usar as opções diretas do GitHub ou a imagem do Docker. Uma vez configurado, todas as interações com modelos são locais e não é necessário internet para execução ou conclusões do modelo.

Q4: Posso executar o LMStudio MCP dentro de um contêiner para desenvolvimento ou produção?
A4: Sim, o LMStudio MCP fornece imagens oficiais do Docker, Docker Compose e manifests do Kubernetes para facilitar opções de implantação isoladas e escaláveis.