Что такое Zen MCP?
Zen MCP — это мощный инструмент разработки, который действует как "сервер оркестрации ИИ" через протокол контекста модели. Он позволяет одной главной ИИ (обычно Claude) координировать, обсуждать и использовать уникальные возможности различных больших языковых моделей, таких как Gemini Pro и O3, для конкретных задач в области программной инженерии. Zen MCP предоставляет разработчикам способ получать разнообразные точки зрения ИИ, автоматизировать выбор модели и строить сложные многомодельные рабочие процессы с глубоким сохранением контекста, что делает ваш ИИ-ассистент похожим на многоопытную команду разработчиков.
Как настроить Zen MCP
-
Предварительные требования:
- Установите Docker Desktop и Git.
- (Для пользователей Windows) Включите WSL2 для Claude Code CLI.
-
Получите API-ключи:
- OpenRouter: Зарегистрируйтесь для получения ключа для доступа к нескольким моделям через один API (OpenRouter).
- Google Gemini: Получите ваш API-ключ в Google AI Studio.
- OpenAI: Получите API-ключ в OpenAI Platform.
- Локальные модели: Настройте пользовательские конечные точки для Ollama, vLLM, LM Studio и т.д.
-
Клонируйте и настройте Zen MCP:
git clone https://github.com/BeehiveInnovations/zen-mcp-server.git cd zen-mcp-server ./setup-docker.sh
Этот сценарий создает образы Docker, создает конфигурацию
.env
и запускает сервер Zen MCP с Redis. -
Добавьте API-ключи:
- Отредактируйте ваш файл
.env
, чтобы включить необходимые API-ключи или пользовательские конечные точки модели.
- Отредактируйте ваш файл
-
Добавьте Zen MCP к Claude:
- Для Claude Code CLI:
claude mcp add zen -s user -- docker exec -i zen-mcp-server python server.py
- Для Claude Desktop:
- Обновите файл
claude_desktop_config.json
с конфигурацией MCP сервера (скопируйте инструкции из установки).
- Обновите файл
- Для Claude Code CLI:
-
Перезапустите вашу среду Claude по мере необходимости.
Как использовать Zen MCP
-
Взаимодействуйте естественным образом с Claude, указывая "zen" в качестве поставщика контекста.
- Пример: "Используйте zen для проведения обзора кода этой функции."
-
Zen MCP автоматически направляет задачи к наиболее подходящей модели/инструменту.
- Вы можете указать Zen использовать конкретную модель (например, Gemini Pro, O3, Flash или Ollama) или позволить ей выбрать автоматически.
-
Используйте совместные многомодельные разговоры.
- Задачи могут быть разделены: одна модель анализирует, другая проверяет, третья предлагает исправления — всё в одном разговоре.
- Предыдущий контекст и результаты передаются между этапами и моделями.
-
Используйте специальные инструменты Zen MCP в командах:
- Запрашивайте обзоры кода, глубокий анализ, отладку, проверки перед коммитом и многое другое.
-
Переопределите выбор модели/инструмента, если необходимо:
- Добавьте инструкции, такие как "Используйте o3 для логической отладки" или "Используйте flash для быстрой проверки".
-
Исследуйте расширенные возможности использования:
- Объединяйте инструменты, используйте дополнение веб-поиска или сотрудничайте асинхронно с продолжением между инструментами.
Ключевые особенности
- Оркестрация нескольких моделей: Координируйте сильные стороны Claude, Gemini, O3 и локальных моделей в единых рабочих процессах.
- Автоматический выбор модели: Claude интеллектуально выбирает наилучшую модель для каждой подзадачи, или вы можете указать.
- Бесшовное сохранение контекста: Однопоточные разговоры сохраняют контекст при переключении инструментов и моделей.
- Предварительно построенные инструменты для разработки: Включает в себя совместный чат, обзоры кода, проверки перед коммитом, отладку и многое другое.
- Обсуждение ИИ между моделями: Модели могут дискуссировать, бросать вызовы и запрашивать информацию друг у друга, предоставляя многоперспективные решения.
- Поддержка локальных моделей: Легко подключайте локальные модели, такие как Llama через Ollama или vLLM для обеспечения конфиденциальности и экономии средств.
- Обработка крупных окон контекста: Переносите анализ больших кодовых баз на модели с большими лимитами токенов (например, Gemini 1M, O3 200K).
- Интеллектуальное управление файлами и репозиториями: Автоопределение файлов/репозиториев, развёртывание каталогов и интеллектуальное управление лимитами токенов.
- Инкрементальный обмен знаниями: Отправляется только измененная/новая информация за каждую операцию, что позволяет эффективно работать с рабочими процессами на более чем 25K токенов.
- Дополнение веб-поиска: Некоторые инструменты могут предлагать и использовать результаты веб-поиска по запросу.
- Простая интеграция: Установка Docker одной командой и быстрая привязка к средам Claude (CLI или Desktop).
Случаи использования
- Получите как быстрые, так и глубокие обзоры кода, используя разные сильные стороны Gemini и Claude.
- Проведите мозговой штурм по сложной архитектуре или техническим решениям — обсуждайте между моделями для поиска лучших решений.
- Отлаживайте упрямые логические ошибки — пусть O3 проводит анализ логики, а Gemini сосредоточится на архитектуре.
- Проверяйте git-коммиты перед слиянием — проверки перед коммитом с множеством точек зрения.
- Выполняйте исследовательский анализ кода в больших кодовых базах, превышающих собственное окно токенов Claude.
- Используйте локальную модель Llama для анализа кода, а затем при необходимости переходите к онлайн-модели для более глубокого анализа.
- Поддерживайте постоянный асинхронный разговор между моделями для длительного решения проблем.
- Быстро переключайтесь между различными инструментами анализа (например, с "анализ" на "обзор кода" на "отладка"), не сбрасывая контекст.
Часто задаваемые вопросы
В: Нужно ли мне иметь все API-ключи (Gemini, OpenAI, OpenRouter) для использования Zen MCP?
О: Нет. Вы можете начать с одного поставщика. Однако для полной оркестрации нескольких моделей добавление большего количества ключей дает вам возможность включать больше мнений и сильных сторон моделей.
В: Делится ли Zen MCP моими файлами или контекстом с какими-либо внешними службами?
О: Zen MCP отправляет данные только тем API/моделям, которые вы настроили. Чтобы обеспечить максимальную конфиденциальность, вы можете использовать локальные модели (например, через Ollama), чтобы гарантировать, что данные никогда не покинут ваш компьютер.
В: Как работает многопоточное взаимодействие? Будет ли сохранена моя история?
О: Zen MCP использует Redis для постоянного "многопоточного взаимодействия". В рамках сессии модели ИИ сохраняют контекст и могут обмениваться обновлениями до 5 сообщений или 1 часа. Долгосрочное хранение по умолчанию не сохраняется.
В: Могу ли я использовать Zen MCP для задач, не связанных с кодированием?
О: Хотя Zen MCP оптимизирован для рабочих процессов кодирования и разработки, его можно настроить для более широких аналитических или рассуждательных задач с использованием поддерживаемых моделей и инструментов.
В: Что произойдет, если два API-эндпоинта совпадут (например, одно и то же имя модели)?
О: Родные API имеют приоритет в случае конфликта имен (например, "gemini" через Gemini API против OpenRouter). Вы можете разрешить это, установив уникальные псевдонимы моделей в custom_models.json
.