¿Qué es Zen MCP?
Zen MCP es una herramienta de desarrollo poderosa que actúa como un "servidor de orquestación de IA" a través del Protocolo de Contexto de Modelo. Permite que una IA principal (típicamente Claude) coordine, debata y aproveche las capacidades únicas de diferentes LLMs, como Gemini Pro y O3, para tareas específicas de ingeniería de software. Zen MCP ofrece a los desarrolladores una forma de obtener diversas perspectivas de IA, automatizar la selección de modelos y construir flujos de trabajo avanzados y multi-modelo con retención profunda de contexto, haciendo que tu asistente de IA se sienta más como un equipo de desarrollo sénior.
Cómo Configurar Zen MCP
-
Requisitos previos:
- Instala Docker Desktop y Git.
- (Para usuarios de Windows) Habilita WSL2 para Claude Code CLI.
-
Obtén Claves API:
- OpenRouter: Regístrate para obtener una clave y acceder a múltiples modelos a través de una API (OpenRouter).
- Google Gemini: Obtén tu clave API de Google AI Studio.
- OpenAI: Consigue una clave API de OpenAI Platform.
- Modelos locales: Configura endpoints personalizados para Ollama, vLLM, LM Studio, etc.
-
Clona y Configura Zen MCP:
git clone https://github.com/BeehiveInnovations/zen-mcp-server.git cd zen-mcp-server ./setup-docker.sh
Este script construye imágenes de Docker, crea la configuración
.env
y empieza el servidor Zen MCP con Redis. -
Agrega Claves API:
- Edita tu archivo
.env
para incluir las claves API requeridas o endpoints de modelos personalizados.
- Edita tu archivo
-
Agrega Zen MCP a Claude:
- Para Claude Code CLI:
claude mcp add zen -s user -- docker exec -i zen-mcp-server python server.py
- Para Claude Desktop:
- Actualiza
claude_desktop_config.json
con la configuración del servidor MCP (copia las instrucciones de la configuración).
- Actualiza
- Para Claude Code CLI:
-
Reinicia tu entorno Claude según sea necesario.
Cómo Usar Zen MCP
-
Interactúa de forma natural con Claude, especificando "zen" como tu proveedor de contexto.
- Ejemplo: "Usa zen para realizar una revisión de código en esta función."
-
Zen MCP enruta automáticamente las tareas al modelo/herramienta más adecuado.
- Puedes dirigir a Zen para que use un modelo específico (por ejemplo, Gemini Pro, O3, Flash o Ollama) o dejar que seleccione automáticamente.
-
Aprovecha las conversaciones colaborativas multi-modelo.
- Las tareas se pueden dividir: un modelo analiza, otro revisa, un tercero propone soluciones, todo en el mismo hilo de conversación.
- El contexto y los hallazgos anteriores se mantienen entre pasos y modelos.
-
Usa herramientas específicas de Zen MCP dentro de los comandos:
- Solicita revisiones de código, análisis profundo, depuración, comprobaciones previas al commit, y más.
-
Anula la selección de modelo/herramienta si es necesario:
- Agrega instrucciones como "Usa O3 para depuración lógica" o "Usa Flash para una revisión rápida".
-
Explora usos avanzados:
- Combina herramientas, usa búsqueda web para complementar, o colabora de manera asincrónica con la continuación cruzada de herramientas.
Características Clave
- Orquestación multi-modelo: Coordina las fortalezas de Claude, Gemini, O3 y modelos locales en flujos de trabajo unificados.
- Selección automática de modelo: Claude selecciona de manera inteligente el mejor modelo para cada subtarea, o puedes especificarlo.
- Retención de contexto sin fisuras: Conversaciones de un solo hilo preservan el contexto a través de herramientas y cambios de modelo.
- Herramientas de desarrollo preconstruidas: Incluye chat colaborativo, revisión de código, validación previa al commit, depuración, y más.
- Hilo de conversación de IA a IA: Los modelos pueden debatir, desafiar y solicitar información entre sí, proporcionando soluciones con múltiples perspectivas.
- Soporte para modelos locales: Integra fácilmente modelos auto-alojados como Llama a través de Ollama o vLLM para mayor privacidad y eficiencia de costos.
- Maneja grandes ventanales de contexto: Desplaza el análisis de grandes bases de código a modelos con límites de tokens grandes (por ejemplo, Gemini 1M, O3 200K).
- Gestión inteligente de archivos y repositorios: Descubre archivos/repositorios automáticamente, expande directorios y maneja inteligentemente los límites de tokens.
- Compartición incremental de conocimientos: Solo se envían los cambios/nueva información en cada intercambio, permitiendo flujos de trabajo efectivos de más de 25K tokens.
- Aumento de búsqueda web: Algunas herramientas pueden sugerir e incorporar resultados de búsqueda web a demanda.
- Integración lista para usar: Configuración de Docker de un solo comando y enlace rápido a entornos de Claude (CLI o Desktop).
Casos de Uso
- Obtén revisiones de código rápidas y profundas aprovechando las diferentes fortalezas de Gemini y Claude.
- Brainstorming sobre decisiones complejas de arquitectura o técnicas, debatiendo entre modelos para encontrar las mejores soluciones.
- Depura errores lógicos difíciles, dejando que O3 analice la lógica y Gemini se concentre en la arquitectura.
- Valida commits de git antes de fusionar, con comprobaciones previas al commit y opiniones de múltiples modelos.
- Realiza análisis exploratorios de código sobre grandes bases de código que superan la ventana de tokens nativa de Claude.
- Usa un modelo local (enfocado en privacidad) Llama para análisis de código, luego escalona a un modelo en línea para un razonamiento más profundo según sea necesario.
- Mantén un hilo de conversación persistente y asincrónico entre modelos para una resolución de problemas extendida.
- Cambia rápidamente entre diferentes herramientas de análisis (por ejemplo, de "analizar" a "revisión de código" a "depurar") sin reiniciar el contexto.
FAQ
P: ¿Necesito todas las claves API (Gemini, OpenAI, OpenRouter) para usar Zen MCP?
R: No. Puedes empezar con solo un proveedor. Sin embargo, para la orquestación multi-modelo completa, agregar más claves te da la flexibilidad de incluir más perspectivas y fortalezas de modelo.
P: ¿Zen MCP comparte mis archivos o contexto con algún servicio externo?
R: Zen MCP solo envía datos a las APIs/modelos que configuras. Para máxima privacidad, puedes usar modelos locales (por ejemplo, a través de Ollama) para asegurar que los datos nunca abandonen tu máquina.
P: ¿Cómo funciona el hilo de conversación? ¿Se guardará mi historial?
R: Zen MCP usa Redis para el "hilo de conversación" persistente. Dentro de una sesión, los modelos de IA retienen el contexto y pueden intercambiar actualizaciones durante hasta 5 mensajes o 1 hora. No se retiene almacenamiento a largo plazo por defecto.
P: ¿Puedo usar Zen MCP para tareas no relacionadas con la programación?
R: Aunque está optimizado para flujos de trabajo de código y desarrollo, Zen MCP puede configurarse para tareas analíticas o de razonamiento más amplias usando modelos y herramientas compatibles.
P: ¿Qué sucede si dos endpoints de API se superponen (por ejemplo, el mismo nombre de modelo)?
R: Las APIs nativas tienen prioridad cuando hay un conflicto de nombre (por ejemplo, “gemini” a través de la API de Gemini frente a OpenRouter). Puedes resolver esto estableciendo alias de modelo únicos en custom_models.json
.