Zen MCP

Zen MCP

Zen MCP - это сервер протокола контекста модели с открытым исходным кодом. Он помогает в разработке с использованием ИИ, организуя взаимодействие между несколькими крупными языковыми моделями (например, Claude, Gemini, O3, Ollama и другими). С помощью Zen MCP вы можете легко интегрировать разные ИИ-модели в рабочий процесс, выполняя анализ кода, решая проблемы, отлаживая и осуществляя совместную разработку, максимально используя сильные стороны каждой модели — всё это в одном разговоре.

Author: BeehiveInnovations


Просмотреть протокол

Что такое Zen MCP?

Zen MCP — это мощный инструмент разработки, который действует как "сервер оркестрации ИИ" через протокол контекста модели. Он позволяет одной главной ИИ (обычно Claude) координировать, обсуждать и использовать уникальные возможности различных больших языковых моделей, таких как Gemini Pro и O3, для конкретных задач в области программной инженерии. Zen MCP предоставляет разработчикам способ получать разнообразные точки зрения ИИ, автоматизировать выбор модели и строить сложные многомодельные рабочие процессы с глубоким сохранением контекста, что делает ваш ИИ-ассистент похожим на многоопытную команду разработчиков.

Как настроить Zen MCP

  1. Предварительные требования:

    • Установите Docker Desktop и Git.
    • (Для пользователей Windows) Включите WSL2 для Claude Code CLI.
  2. Получите API-ключи:

    • OpenRouter: Зарегистрируйтесь для получения ключа для доступа к нескольким моделям через один API (OpenRouter).
    • Google Gemini: Получите ваш API-ключ в Google AI Studio.
    • OpenAI: Получите API-ключ в OpenAI Platform.
    • Локальные модели: Настройте пользовательские конечные точки для Ollama, vLLM, LM Studio и т.д.
  3. Клонируйте и настройте Zen MCP:

    git clone https://github.com/BeehiveInnovations/zen-mcp-server.git
    cd zen-mcp-server
    ./setup-docker.sh
    

    Этот сценарий создает образы Docker, создает конфигурацию .env и запускает сервер Zen MCP с Redis.

  4. Добавьте API-ключи:

    • Отредактируйте ваш файл .env, чтобы включить необходимые API-ключи или пользовательские конечные точки модели.
  5. Добавьте Zen MCP к Claude:

    • Для Claude Code CLI:
      claude mcp add zen -s user -- docker exec -i zen-mcp-server python server.py
      
    • Для Claude Desktop:
      • Обновите файл claude_desktop_config.json с конфигурацией MCP сервера (скопируйте инструкции из установки).
  6. Перезапустите вашу среду Claude по мере необходимости.

Как использовать Zen MCP

  1. Взаимодействуйте естественным образом с Claude, указывая "zen" в качестве поставщика контекста.

    • Пример: "Используйте zen для проведения обзора кода этой функции."
  2. Zen MCP автоматически направляет задачи к наиболее подходящей модели/инструменту.

    • Вы можете указать Zen использовать конкретную модель (например, Gemini Pro, O3, Flash или Ollama) или позволить ей выбрать автоматически.
  3. Используйте совместные многомодельные разговоры.

    • Задачи могут быть разделены: одна модель анализирует, другая проверяет, третья предлагает исправления — всё в одном разговоре.
    • Предыдущий контекст и результаты передаются между этапами и моделями.
  4. Используйте специальные инструменты Zen MCP в командах:

    • Запрашивайте обзоры кода, глубокий анализ, отладку, проверки перед коммитом и многое другое.
  5. Переопределите выбор модели/инструмента, если необходимо:

    • Добавьте инструкции, такие как "Используйте o3 для логической отладки" или "Используйте flash для быстрой проверки".
  6. Исследуйте расширенные возможности использования:

    • Объединяйте инструменты, используйте дополнение веб-поиска или сотрудничайте асинхронно с продолжением между инструментами.

Ключевые особенности

  • Оркестрация нескольких моделей: Координируйте сильные стороны Claude, Gemini, O3 и локальных моделей в единых рабочих процессах.
  • Автоматический выбор модели: Claude интеллектуально выбирает наилучшую модель для каждой подзадачи, или вы можете указать.
  • Бесшовное сохранение контекста: Однопоточные разговоры сохраняют контекст при переключении инструментов и моделей.
  • Предварительно построенные инструменты для разработки: Включает в себя совместный чат, обзоры кода, проверки перед коммитом, отладку и многое другое.
  • Обсуждение ИИ между моделями: Модели могут дискуссировать, бросать вызовы и запрашивать информацию друг у друга, предоставляя многоперспективные решения.
  • Поддержка локальных моделей: Легко подключайте локальные модели, такие как Llama через Ollama или vLLM для обеспечения конфиденциальности и экономии средств.
  • Обработка крупных окон контекста: Переносите анализ больших кодовых баз на модели с большими лимитами токенов (например, Gemini 1M, O3 200K).
  • Интеллектуальное управление файлами и репозиториями: Автоопределение файлов/репозиториев, развёртывание каталогов и интеллектуальное управление лимитами токенов.
  • Инкрементальный обмен знаниями: Отправляется только измененная/новая информация за каждую операцию, что позволяет эффективно работать с рабочими процессами на более чем 25K токенов.
  • Дополнение веб-поиска: Некоторые инструменты могут предлагать и использовать результаты веб-поиска по запросу.
  • Простая интеграция: Установка Docker одной командой и быстрая привязка к средам Claude (CLI или Desktop).

Случаи использования

  • Получите как быстрые, так и глубокие обзоры кода, используя разные сильные стороны Gemini и Claude.
  • Проведите мозговой штурм по сложной архитектуре или техническим решениям — обсуждайте между моделями для поиска лучших решений.
  • Отлаживайте упрямые логические ошибки — пусть O3 проводит анализ логики, а Gemini сосредоточится на архитектуре.
  • Проверяйте git-коммиты перед слиянием — проверки перед коммитом с множеством точек зрения.
  • Выполняйте исследовательский анализ кода в больших кодовых базах, превышающих собственное окно токенов Claude.
  • Используйте локальную модель Llama для анализа кода, а затем при необходимости переходите к онлайн-модели для более глубокого анализа.
  • Поддерживайте постоянный асинхронный разговор между моделями для длительного решения проблем.
  • Быстро переключайтесь между различными инструментами анализа (например, с "анализ" на "обзор кода" на "отладка"), не сбрасывая контекст.

Часто задаваемые вопросы

В: Нужно ли мне иметь все API-ключи (Gemini, OpenAI, OpenRouter) для использования Zen MCP?
О: Нет. Вы можете начать с одного поставщика. Однако для полной оркестрации нескольких моделей добавление большего количества ключей дает вам возможность включать больше мнений и сильных сторон моделей.

В: Делится ли Zen MCP моими файлами или контекстом с какими-либо внешними службами?
О: Zen MCP отправляет данные только тем API/моделям, которые вы настроили. Чтобы обеспечить максимальную конфиденциальность, вы можете использовать локальные модели (например, через Ollama), чтобы гарантировать, что данные никогда не покинут ваш компьютер.

В: Как работает многопоточное взаимодействие? Будет ли сохранена моя история?
О: Zen MCP использует Redis для постоянного "многопоточного взаимодействия". В рамках сессии модели ИИ сохраняют контекст и могут обмениваться обновлениями до 5 сообщений или 1 часа. Долгосрочное хранение по умолчанию не сохраняется.

В: Могу ли я использовать Zen MCP для задач, не связанных с кодированием?
О: Хотя Zen MCP оптимизирован для рабочих процессов кодирования и разработки, его можно настроить для более широких аналитических или рассуждательных задач с использованием поддерживаемых моделей и инструментов.

В: Что произойдет, если два API-эндпоинта совпадут (например, одно и то же имя модели)?
О: Родные API имеют приоритет в случае конфликта имен (например, "gemini" через Gemini API против OpenRouter). Вы можете разрешить это, установив уникальные псевдонимы моделей в custom_models.json.