Was ist Zen MCP?
Zen MCP ist ein leistungsfähiges Entwicklungstool, das als "KI-Orchestrierungsserver" über das Model Context Protocol fungiert. Es erlaubt einem Haupt-KI (normalerweise Claude), die einzigartigen Fähigkeiten verschiedener LLMs wie Gemini Pro und O3 für spezielle Softwareentwicklungsaufgaben zu koordinieren. Zen MCP bietet Entwicklern die Möglichkeit, verschiedene KI-Perspektiven zu erhalten, die Modellauswahl zu automatisieren und fortschrittliche, mehrmodellierte Workflows mit tiefem Kontext zu erstellen. So fühlt sich Ihr KI-Assistent mehr wie ein multi-senior Entwicklungsteam an.
So konfigurieren Sie Zen MCP
-
Voraussetzungen:
- Installieren Sie Docker Desktop und Git.
- (Für Windows-Benutzer) Aktivieren Sie WSL2 für Claude Code CLI.
-
API-Schlüssel erhalten:
- OpenRouter: Registrieren Sie sich für einen Schlüssel, um über eine API auf mehrere Modelle zuzugreifen (OpenRouter).
- Google Gemini: Holen Sie sich Ihren API-Schlüssel von Google AI Studio.
- OpenAI: Holen Sie sich einen API-Schlüssel von OpenAI Platform.
- Lokale Modelle: Richten Sie benutzerdefinierte Endpunkte für Ollama, vLLM, LM Studio usw. ein.
-
Zen MCP klonen und einrichten:
git clone https://github.com/BeehiveInnovations/zen-mcp-server.git cd zen-mcp-server ./setup-docker.sh
Dieses Skript erstellt Docker-Images, erstellt eine
.env
-Konfiguration und startet den Zen MCP-Server mit Redis. -
API-Schlüssel hinzufügen:
- Bearbeiten Sie Ihre
.env
-Datei, um die erforderlichen API-Schlüssel oder benutzerdefinierten Modellendpunkte einzufügen.
- Bearbeiten Sie Ihre
-
Zen MCP zu Claude hinzufügen:
- Für Claude Code CLI:
claude mcp add zen -s user -- docker exec -i zen-mcp-server python server.py
- Für Claude Desktop:
- Aktualisieren Sie
claude_desktop_config.json
mit der MCP-Serverkonfiguration (Kontrollanleitung aus der Einrichtung kopieren).
- Aktualisieren Sie
- Für Claude Code CLI:
-
Starten Sie Ihre Claude-Umgebung nach Bedarf neu.
So verwenden Sie Zen MCP
-
Interagieren Sie natürlich mit Claude und geben Sie "zen" als Ihren Kontextanbieter an.
- Beispiel: "Verwende zen für eine Codeüberprüfung dieser Funktion."
-
Zen MCP leitet Aufgaben automatisch an das am besten geeignete Modell/Werkzeug weiter.
- Sie können Zen anweisen, ein bestimmtes Modell (z.B. Gemini Pro, O3, Flash oder Ollama) zu verwenden oder es automatisch auswählen zu lassen.
-
Nutzen Sie kollaborative Gespräche mit mehreren Modellen.
- Aufgaben können aufgeteilt werden: Ein Modell analysiert, ein anderes überprüft, ein drittes schlägt Korrekturen vor – alles im selben Gesprächsverlauf.
- Frühere Kontexte und Erkenntnisse werden zwischen Schritten und Modellen übertragen.
-
Verwenden Sie spezifische Zen MCP-Tools innerhalb von Befehlen:
- Fordern Sie Codeüberprüfungen, tiefgehende Analysen, Fehlersuche, Vorab-Überprüfungen und mehr an.
-
Überschreiben Sie die Modellauswahl bei Bedarf:
- Fügen Sie Anweisungen hinzu wie "Verwende o3 für logische Fehlersuche" oder "Verwende flash für eine schnelle Überprüfung".
-
Erforschen Sie die erweiterte Nutzung:
- Kombinieren Sie Tools, verwenden Sie Web-Suchverstärkung oder arbeiten Sie asynchron mit fortgesetztem Modellwechsel.
Hauptmerkmale
- Multi-Modell-Orchestrierung: Koordinieren Sie die Stärken von Claude, Gemini, O3 und lokalen Modellen in einheitlichen Workflows.
- Automatische Modellauswahl: Claude wählt intelligent das beste Modell für jede Unteraufgabe aus oder Sie können eins angeben.
- Nahtlose Kontextbeibehaltung: Einzelne Gespräche bewahren den Kontext beim Wechseln zwischen Tools und Modellen.
- Fertigkeitsanforderungen: Umfasst kollaborative Chats, Codeüberprüfungen, Vorabüberprüfungen, Fehlersuche und mehr.
- AI-zu-AI-Gesprächsthreads: Modelle können diskutieren, herausfordern und Informationen untereinander anfordern und bieten so viele Perspektiven.
- Unterstützung für lokale Modelle: Einfache Nutzung von selbst gehosteten Modellen wie Llama über Ollama oder vLLM zur Wahrung der Privatsphäre und Kostenersparnis.
- Verwaltet große Kontextfenster: Überträgt die Analyse großer Codebasen auf Modelle mit großen Token-Limits (z.B. Gemini 1M, O3 200K).
- Intelligentes Dateimanagement: Entdeckt automatisch Dateien/Repositories, erweitert Verzeichnisse und verwaltet intelligent Token-Limits.
- Inkrementelles Wissensmanagement: Nur geänderte/neue Informationen werden pro Austausch gesendet, was wirksame 25K+ Token-Workflows ermöglicht.
- Web-Suchverstärkung: Einige Tools können Suchergebnisse im Web auf Anfrage vorschlagen und integrieren.
- Plug-and-Play-Integration: Ein-Knopf-Docker-Setup und schnelle Verlinkung zu Claude-Umgebungen (CLI oder Desktop).
Anwendungsfälle
- Schnelle und tiefgehende Codeüberprüfungen unter Ausnutzung der unterschiedlichen Stärken von Gemini und Claude
- Komplexe Architektur- oder technische Entscheidungen brainstormen – Debatten zwischen Modellen für die besten Lösungen
- Hartnäckige logische Fehler debuggen – O3 analysiert die Logik, Gemini konzentriert sich auf die Architektur
- Git-Commits vor dem Zusammenlegen validieren – Vorabüberprüfungen mit Mehr-Modell-Meinungen
- Explorative Codeanalyse über große Codebasen durchführen, die Claudes native Token-Fenster überschreiten
- Ein lokales (datenschutzorientiertes) Llama-Modell für die Codeanalyse verwenden und dann bei Bedarf zu einem Online-Modell für tiefere Überlegungen übergehen
- Einen dauerhaften, asynchronen Gesprächsverlauf zwischen Modellen für erweiterte Problemlösungen aufrechterhalten
- Schnell zwischen verschiedenen Analysetools wechseln (z.B. von "analysieren" zu "codereview" zu "debuggen"), ohne den Kontext zurückzusetzen
FAQ
F: Muss ich alle API-Schlüssel (Gemini, OpenAI, OpenRouter) zur Verwendung von Zen MCP haben?
A: Nein. Sie können mit nur einem Anbieter beginnen. Für eine vollständige Multi-Modell-Orchestrierung gibt Ihnen das Hinzufügen weiterer Schlüssel jedoch die Flexibilität, mehr Perspektiven und Modellstärken einzubeziehen.
F: Teilt Zen MCP meine Dateien oder Kontexte mit externen Diensten?
A: Zen MCP sendet nur Daten an die von Ihnen konfigurierten APIs/Modelle. Zur maximalen Wahrung der Privatsphäre können Sie lokale Modelle (z.B. über Ollama) verwenden, um sicherzustellen, dass Daten nie Ihren Rechner verlassen.
F: Wie funktioniert das Gesprächs-Threading? Wird meine Historie gespeichert?
A: Zen MCP nutzt Redis für persistentes "Gesprächs-Threading." Innerhalb einer Sitzung behalten KI-Modelle den Kontext und können bis zu 5 Nachrichten oder 1 Stunde lang Updates austauschen. Standardmäßig werden keine langfristigen Daten gespeichert.
F: Kann ich Zen MCP für Nicht-Coding-Aufgaben verwenden?
A: Während Zen MCP für Code- und Entwicklungs-Workflows optimiert ist, kann es auch für breitere analytische oder logische Aufgaben angepasst werden, indem unterstützte Modelle und Tools verwendet werden.
F: Was passiert, wenn zwei API-Endpunkte überschneiden (z.B. derselbe Modellname)?
A: Native APIs haben Vorrang bei Namenskonflikten (z.B. „gemini“ über Gemini API versus OpenRouter). Sie können dies lösen, indem Sie in custom_models.json
eindeutige Modellaliasnamen festlegen.