Zen MCP

Zen MCP

Zen MCP ist ein Open-Source-Server für das Model Context Protocol. Er fördert die Entwicklung durch KI, indem er die Zusammenarbeit mehrerer großer Sprachmodelle (z.B. Claude, Gemini, O3, Ollama und andere) koordiniert. Mit Zen MCP können Sie verschiedene KI-Modelle nahtlos in Ihren Arbeitsprozess integrieren. Das dient der Codeanalyse, Problemlösung, Fehlersuche und kollaborativen Entwicklung. Nutzen Sie die Stärken jedes Modells in einem einzigen Gesprächsverlauf.

Author: BeehiveInnovations


Protokoll anzeigen

Was ist Zen MCP?

Zen MCP ist ein leistungsfähiges Entwicklungstool, das als "KI-Orchestrierungsserver" über das Model Context Protocol fungiert. Es erlaubt einem Haupt-KI (normalerweise Claude), die einzigartigen Fähigkeiten verschiedener LLMs wie Gemini Pro und O3 für spezielle Softwareentwicklungsaufgaben zu koordinieren. Zen MCP bietet Entwicklern die Möglichkeit, verschiedene KI-Perspektiven zu erhalten, die Modellauswahl zu automatisieren und fortschrittliche, mehrmodellierte Workflows mit tiefem Kontext zu erstellen. So fühlt sich Ihr KI-Assistent mehr wie ein multi-senior Entwicklungsteam an.

So konfigurieren Sie Zen MCP

  1. Voraussetzungen:

    • Installieren Sie Docker Desktop und Git.
    • (Für Windows-Benutzer) Aktivieren Sie WSL2 für Claude Code CLI.
  2. API-Schlüssel erhalten:

    • OpenRouter: Registrieren Sie sich für einen Schlüssel, um über eine API auf mehrere Modelle zuzugreifen (OpenRouter).
    • Google Gemini: Holen Sie sich Ihren API-Schlüssel von Google AI Studio.
    • OpenAI: Holen Sie sich einen API-Schlüssel von OpenAI Platform.
    • Lokale Modelle: Richten Sie benutzerdefinierte Endpunkte für Ollama, vLLM, LM Studio usw. ein.
  3. Zen MCP klonen und einrichten:

    git clone https://github.com/BeehiveInnovations/zen-mcp-server.git
    cd zen-mcp-server
    ./setup-docker.sh
    

    Dieses Skript erstellt Docker-Images, erstellt eine .env-Konfiguration und startet den Zen MCP-Server mit Redis.

  4. API-Schlüssel hinzufügen:

    • Bearbeiten Sie Ihre .env-Datei, um die erforderlichen API-Schlüssel oder benutzerdefinierten Modellendpunkte einzufügen.
  5. Zen MCP zu Claude hinzufügen:

    • Für Claude Code CLI:
      claude mcp add zen -s user -- docker exec -i zen-mcp-server python server.py
      
    • Für Claude Desktop:
      • Aktualisieren Sie claude_desktop_config.json mit der MCP-Serverkonfiguration (Kontrollanleitung aus der Einrichtung kopieren).
  6. Starten Sie Ihre Claude-Umgebung nach Bedarf neu.

So verwenden Sie Zen MCP

  1. Interagieren Sie natürlich mit Claude und geben Sie "zen" als Ihren Kontextanbieter an.

    • Beispiel: "Verwende zen für eine Codeüberprüfung dieser Funktion."
  2. Zen MCP leitet Aufgaben automatisch an das am besten geeignete Modell/Werkzeug weiter.

    • Sie können Zen anweisen, ein bestimmtes Modell (z.B. Gemini Pro, O3, Flash oder Ollama) zu verwenden oder es automatisch auswählen zu lassen.
  3. Nutzen Sie kollaborative Gespräche mit mehreren Modellen.

    • Aufgaben können aufgeteilt werden: Ein Modell analysiert, ein anderes überprüft, ein drittes schlägt Korrekturen vor – alles im selben Gesprächsverlauf.
    • Frühere Kontexte und Erkenntnisse werden zwischen Schritten und Modellen übertragen.
  4. Verwenden Sie spezifische Zen MCP-Tools innerhalb von Befehlen:

    • Fordern Sie Codeüberprüfungen, tiefgehende Analysen, Fehlersuche, Vorab-Überprüfungen und mehr an.
  5. Überschreiben Sie die Modellauswahl bei Bedarf:

    • Fügen Sie Anweisungen hinzu wie "Verwende o3 für logische Fehlersuche" oder "Verwende flash für eine schnelle Überprüfung".
  6. Erforschen Sie die erweiterte Nutzung:

    • Kombinieren Sie Tools, verwenden Sie Web-Suchverstärkung oder arbeiten Sie asynchron mit fortgesetztem Modellwechsel.

Hauptmerkmale

  • Multi-Modell-Orchestrierung: Koordinieren Sie die Stärken von Claude, Gemini, O3 und lokalen Modellen in einheitlichen Workflows.
  • Automatische Modellauswahl: Claude wählt intelligent das beste Modell für jede Unteraufgabe aus oder Sie können eins angeben.
  • Nahtlose Kontextbeibehaltung: Einzelne Gespräche bewahren den Kontext beim Wechseln zwischen Tools und Modellen.
  • Fertigkeitsanforderungen: Umfasst kollaborative Chats, Codeüberprüfungen, Vorabüberprüfungen, Fehlersuche und mehr.
  • AI-zu-AI-Gesprächsthreads: Modelle können diskutieren, herausfordern und Informationen untereinander anfordern und bieten so viele Perspektiven.
  • Unterstützung für lokale Modelle: Einfache Nutzung von selbst gehosteten Modellen wie Llama über Ollama oder vLLM zur Wahrung der Privatsphäre und Kostenersparnis.
  • Verwaltet große Kontextfenster: Überträgt die Analyse großer Codebasen auf Modelle mit großen Token-Limits (z.B. Gemini 1M, O3 200K).
  • Intelligentes Dateimanagement: Entdeckt automatisch Dateien/Repositories, erweitert Verzeichnisse und verwaltet intelligent Token-Limits.
  • Inkrementelles Wissensmanagement: Nur geänderte/neue Informationen werden pro Austausch gesendet, was wirksame 25K+ Token-Workflows ermöglicht.
  • Web-Suchverstärkung: Einige Tools können Suchergebnisse im Web auf Anfrage vorschlagen und integrieren.
  • Plug-and-Play-Integration: Ein-Knopf-Docker-Setup und schnelle Verlinkung zu Claude-Umgebungen (CLI oder Desktop).

Anwendungsfälle

  • Schnelle und tiefgehende Codeüberprüfungen unter Ausnutzung der unterschiedlichen Stärken von Gemini und Claude
  • Komplexe Architektur- oder technische Entscheidungen brainstormen – Debatten zwischen Modellen für die besten Lösungen
  • Hartnäckige logische Fehler debuggen – O3 analysiert die Logik, Gemini konzentriert sich auf die Architektur
  • Git-Commits vor dem Zusammenlegen validieren – Vorabüberprüfungen mit Mehr-Modell-Meinungen
  • Explorative Codeanalyse über große Codebasen durchführen, die Claudes native Token-Fenster überschreiten
  • Ein lokales (datenschutzorientiertes) Llama-Modell für die Codeanalyse verwenden und dann bei Bedarf zu einem Online-Modell für tiefere Überlegungen übergehen
  • Einen dauerhaften, asynchronen Gesprächsverlauf zwischen Modellen für erweiterte Problemlösungen aufrechterhalten
  • Schnell zwischen verschiedenen Analysetools wechseln (z.B. von "analysieren" zu "codereview" zu "debuggen"), ohne den Kontext zurückzusetzen

FAQ

F: Muss ich alle API-Schlüssel (Gemini, OpenAI, OpenRouter) zur Verwendung von Zen MCP haben?
A: Nein. Sie können mit nur einem Anbieter beginnen. Für eine vollständige Multi-Modell-Orchestrierung gibt Ihnen das Hinzufügen weiterer Schlüssel jedoch die Flexibilität, mehr Perspektiven und Modellstärken einzubeziehen.

F: Teilt Zen MCP meine Dateien oder Kontexte mit externen Diensten?
A: Zen MCP sendet nur Daten an die von Ihnen konfigurierten APIs/Modelle. Zur maximalen Wahrung der Privatsphäre können Sie lokale Modelle (z.B. über Ollama) verwenden, um sicherzustellen, dass Daten nie Ihren Rechner verlassen.

F: Wie funktioniert das Gesprächs-Threading? Wird meine Historie gespeichert?
A: Zen MCP nutzt Redis für persistentes "Gesprächs-Threading." Innerhalb einer Sitzung behalten KI-Modelle den Kontext und können bis zu 5 Nachrichten oder 1 Stunde lang Updates austauschen. Standardmäßig werden keine langfristigen Daten gespeichert.

F: Kann ich Zen MCP für Nicht-Coding-Aufgaben verwenden?
A: Während Zen MCP für Code- und Entwicklungs-Workflows optimiert ist, kann es auch für breitere analytische oder logische Aufgaben angepasst werden, indem unterstützte Modelle und Tools verwendet werden.

F: Was passiert, wenn zwei API-Endpunkte überschneiden (z.B. derselbe Modellname)?
A: Native APIs haben Vorrang bei Namenskonflikten (z.B. „gemini“ über Gemini API versus OpenRouter). Sie können dies lösen, indem Sie in custom_models.json eindeutige Modellaliasnamen festlegen.