Zen MCP

Zen MCP

Zen MCP es un servidor de Protocolo de Contexto de Modelo de código abierto que potencia el desarrollo impulsado por IA. Permite la colaboración entre múltiples modelos de lenguaje grandes (por ejemplo, Claude, Gemini, O3, Ollama, entre otros). Con Zen MCP, puedes integrar diferentes modelos de IA en tu flujo de trabajo para análisis de código, resolución de problemas, depuración y desarrollo colaborativo, maximizando las fortalezas de cada modelo, todo dentro de un solo hilo de conversación.

Author: BeehiveInnovations


Ver Protocolo

¿Qué es Zen MCP?

Zen MCP es una herramienta de desarrollo poderosa que actúa como un "servidor de orquestación de IA" a través del Protocolo de Contexto de Modelo. Permite que una IA principal (típicamente Claude) coordine, debata y aproveche las capacidades únicas de diferentes LLMs, como Gemini Pro y O3, para tareas específicas de ingeniería de software. Zen MCP ofrece a los desarrolladores una forma de obtener diversas perspectivas de IA, automatizar la selección de modelos y construir flujos de trabajo avanzados y multi-modelo con retención profunda de contexto, haciendo que tu asistente de IA se sienta más como un equipo de desarrollo sénior.

Cómo Configurar Zen MCP

  1. Requisitos previos:

    • Instala Docker Desktop y Git.
    • (Para usuarios de Windows) Habilita WSL2 para Claude Code CLI.
  2. Obtén Claves API:

    • OpenRouter: Regístrate para obtener una clave y acceder a múltiples modelos a través de una API (OpenRouter).
    • Google Gemini: Obtén tu clave API de Google AI Studio.
    • OpenAI: Consigue una clave API de OpenAI Platform.
    • Modelos locales: Configura endpoints personalizados para Ollama, vLLM, LM Studio, etc.
  3. Clona y Configura Zen MCP:

    git clone https://github.com/BeehiveInnovations/zen-mcp-server.git
    cd zen-mcp-server
    ./setup-docker.sh
    

    Este script construye imágenes de Docker, crea la configuración .env y empieza el servidor Zen MCP con Redis.

  4. Agrega Claves API:

    • Edita tu archivo .env para incluir las claves API requeridas o endpoints de modelos personalizados.
  5. Agrega Zen MCP a Claude:

    • Para Claude Code CLI:
      claude mcp add zen -s user -- docker exec -i zen-mcp-server python server.py
      
    • Para Claude Desktop:
      • Actualiza claude_desktop_config.json con la configuración del servidor MCP (copia las instrucciones de la configuración).
  6. Reinicia tu entorno Claude según sea necesario.

Cómo Usar Zen MCP

  1. Interactúa de forma natural con Claude, especificando "zen" como tu proveedor de contexto.

    • Ejemplo: "Usa zen para realizar una revisión de código en esta función."
  2. Zen MCP enruta automáticamente las tareas al modelo/herramienta más adecuado.

    • Puedes dirigir a Zen para que use un modelo específico (por ejemplo, Gemini Pro, O3, Flash o Ollama) o dejar que seleccione automáticamente.
  3. Aprovecha las conversaciones colaborativas multi-modelo.

    • Las tareas se pueden dividir: un modelo analiza, otro revisa, un tercero propone soluciones, todo en el mismo hilo de conversación.
    • El contexto y los hallazgos anteriores se mantienen entre pasos y modelos.
  4. Usa herramientas específicas de Zen MCP dentro de los comandos:

    • Solicita revisiones de código, análisis profundo, depuración, comprobaciones previas al commit, y más.
  5. Anula la selección de modelo/herramienta si es necesario:

    • Agrega instrucciones como "Usa O3 para depuración lógica" o "Usa Flash para una revisión rápida".
  6. Explora usos avanzados:

    • Combina herramientas, usa búsqueda web para complementar, o colabora de manera asincrónica con la continuación cruzada de herramientas.

Características Clave

  • Orquestación multi-modelo: Coordina las fortalezas de Claude, Gemini, O3 y modelos locales en flujos de trabajo unificados.
  • Selección automática de modelo: Claude selecciona de manera inteligente el mejor modelo para cada subtarea, o puedes especificarlo.
  • Retención de contexto sin fisuras: Conversaciones de un solo hilo preservan el contexto a través de herramientas y cambios de modelo.
  • Herramientas de desarrollo preconstruidas: Incluye chat colaborativo, revisión de código, validación previa al commit, depuración, y más.
  • Hilo de conversación de IA a IA: Los modelos pueden debatir, desafiar y solicitar información entre sí, proporcionando soluciones con múltiples perspectivas.
  • Soporte para modelos locales: Integra fácilmente modelos auto-alojados como Llama a través de Ollama o vLLM para mayor privacidad y eficiencia de costos.
  • Maneja grandes ventanales de contexto: Desplaza el análisis de grandes bases de código a modelos con límites de tokens grandes (por ejemplo, Gemini 1M, O3 200K).
  • Gestión inteligente de archivos y repositorios: Descubre archivos/repositorios automáticamente, expande directorios y maneja inteligentemente los límites de tokens.
  • Compartición incremental de conocimientos: Solo se envían los cambios/nueva información en cada intercambio, permitiendo flujos de trabajo efectivos de más de 25K tokens.
  • Aumento de búsqueda web: Algunas herramientas pueden sugerir e incorporar resultados de búsqueda web a demanda.
  • Integración lista para usar: Configuración de Docker de un solo comando y enlace rápido a entornos de Claude (CLI o Desktop).

Casos de Uso

  • Obtén revisiones de código rápidas y profundas aprovechando las diferentes fortalezas de Gemini y Claude.
  • Brainstorming sobre decisiones complejas de arquitectura o técnicas, debatiendo entre modelos para encontrar las mejores soluciones.
  • Depura errores lógicos difíciles, dejando que O3 analice la lógica y Gemini se concentre en la arquitectura.
  • Valida commits de git antes de fusionar, con comprobaciones previas al commit y opiniones de múltiples modelos.
  • Realiza análisis exploratorios de código sobre grandes bases de código que superan la ventana de tokens nativa de Claude.
  • Usa un modelo local (enfocado en privacidad) Llama para análisis de código, luego escalona a un modelo en línea para un razonamiento más profundo según sea necesario.
  • Mantén un hilo de conversación persistente y asincrónico entre modelos para una resolución de problemas extendida.
  • Cambia rápidamente entre diferentes herramientas de análisis (por ejemplo, de "analizar" a "revisión de código" a "depurar") sin reiniciar el contexto.

FAQ

P: ¿Necesito todas las claves API (Gemini, OpenAI, OpenRouter) para usar Zen MCP?
R: No. Puedes empezar con solo un proveedor. Sin embargo, para la orquestación multi-modelo completa, agregar más claves te da la flexibilidad de incluir más perspectivas y fortalezas de modelo.

P: ¿Zen MCP comparte mis archivos o contexto con algún servicio externo?
R: Zen MCP solo envía datos a las APIs/modelos que configuras. Para máxima privacidad, puedes usar modelos locales (por ejemplo, a través de Ollama) para asegurar que los datos nunca abandonen tu máquina.

P: ¿Cómo funciona el hilo de conversación? ¿Se guardará mi historial?
R: Zen MCP usa Redis para el "hilo de conversación" persistente. Dentro de una sesión, los modelos de IA retienen el contexto y pueden intercambiar actualizaciones durante hasta 5 mensajes o 1 hora. No se retiene almacenamiento a largo plazo por defecto.

P: ¿Puedo usar Zen MCP para tareas no relacionadas con la programación?
R: Aunque está optimizado para flujos de trabajo de código y desarrollo, Zen MCP puede configurarse para tareas analíticas o de razonamiento más amplias usando modelos y herramientas compatibles.

P: ¿Qué sucede si dos endpoints de API se superponen (por ejemplo, el mismo nombre de modelo)?
R: Las APIs nativas tienen prioridad cuando hay un conflicto de nombre (por ejemplo, “gemini” a través de la API de Gemini frente a OpenRouter). Puedes resolver esto estableciendo alias de modelo únicos en custom_models.json.