Qu'est-ce que le serveur Consult7 MCP ?
Le serveur Consult7 MCP est un pont qui permet aux agents de modèles linguistiques de traiter et d'analyser des ensembles de données, des bases de code ou des dépôts de documents trop grands pour s'inscrire dans leur fenêtre de contexte habituelle. Il utilise des LLM externes (d'OpenRouter, OpenAI ou Google) capables de gérer des contextes beaucoup plus larges, en extrayant tous les fichiers pertinents correspondant aux motifs spécifiés par l'utilisateur, en les envoyant à un modèle à grande fenêtre pour analyse, et en retournant les résultats directement à l'agent. Le serveur est intégré en tant qu'outil dans le Protocole de Contexte de Modèle pour une découverte et une invocation faciles.
Comment configurer
Claude Code :
Ajoutez Consult7 via la ligne de commande :
claude mcp add -s user consult7 uvx -- consult7 <provider> <api-key>
Remplacez <provider>
par openrouter
, google
ou openai
, et <api-key>
par votre clé API réelle.
Claude Desktop :
Modifiez votre configuration mcpServers
:
{
"mcpServers": {
"consult7": {
"type": "stdio",
"command": "uvx",
"args": ["consult7", "openrouter", "your-api-key"]
}
}
}
Substituez le fournisseur et la clé API au besoin. Aucune installation manuelle du serveur n'est nécessaire ; uvx
télécharge et exécute tout dans un environnement isolé.
Option de ligne de commande :
Vous pouvez également tester la connectivité directement :
uvx consult7 <provider> <api-key> [--test]
Le modèle lui-même est choisi à chaque invocation d'outil, et non pendant la configuration.
Comment utiliser
- Configurez Consult7 dans votre environnement Claude Code ou Desktop comme décrit ci-dessus.
- Depuis votre agent IA, utilisez l'outil Consult7 pour soumettre des requêtes accompagnées de :
- Le chemin du répertoire à analyser
- Un motif regex pour sélectionner les fichiers (par exemple,
".*\\.py$"
pour les fichiers Python) - Facultatif : spécifiez un modèle particulier (avec ou sans mode
|thinking
)
- Consult7 collectera de manière récursive tous les fichiers correspondants, les assemblera dans un grand contexte, enverra votre requête et les données au LLM à grand contexte choisi, et retournera l'analyse à votre agent.
- Exemples de requêtes en ligne de commande pour tester les connexions :
uvx consult7 openai <api-key> --test
- Pour supprimer Consult7 de Claude Code :
claude mcp remove consult7 -s user
Caractéristiques clés
- Pont transparent entre les agents IA et les modèles ayant des fenêtres de contexte extrêmement larges (1M+ tokens)
- Prend en charge plusieurs fournisseurs de premier plan : OpenAI, Google AI (Gemini), OpenRouter
- Collecte et filtre des fichiers de n'importe quel répertoire en utilisant des motifs regex
- Retourne les réponses du modèle directement à votre agent pour une automatisation du flux de travail
- Peut fonctionner en mode "thinking" ou raisonnement pour une analyse plus approfondie lorsque c'est supporté
- Installation et gestion faciles via Claude Code ou Desktop, sans configuration manuelle nécessaire
- Découverte et invocation complètement compatibles avec les outils clients MCP
Cas d'utilisation
- Résumer de grands ensembles de code : "Résumez l'architecture et les principaux composants de ce projet Python" (analyse tous les fichiers .py)
- Localiser des implémentations spécifiques : "Trouvez l'implémentation de la méthode authenticate_user et expliquez comment elle gère la vérification des mots de passe" (recherche dans les fichiers Python, JavaScript et TypeScript)
- Analyse de la couverture des tests : "Listez tous les fichiers de test et identifiez quels composants manquent de couverture de test" (recherche et croisement de fichiers liés aux tests)
- Revue de sécurité : "Analysez le flux d'authentification et réfléchissez étape par étape aux vulnérabilités" (demande une analyse approfondie avec le mode |thinking)
- Extraction de documentation : Extraire des résumés de haut niveau, des TODO ou des API docs de dossiers de projets divers et massifs.
FAQ
Q: Quels modèles Consult7 prend-il en charge ?
R: Consult7 prend en charge les principaux LLM à contexte large d'OpenAI, Google (Gemini) et OpenRouter, y compris les modèles avec une longueur de contexte de plus de 1 million de tokens. Le choix du modèle est flexible par requête.
Q: Consult7 lit-il et envoie-t-il mes données à des fournisseurs externes ?
R: Oui. Les fichiers correspondant à votre chemin et à votre motif sont envoyés (temporairement, de manière sécurisée) au fournisseur cloud choisi pour traitement, en fonction de votre sélection de modèle.
Q: Que se passe-t-il si ma base de code est plus grande que la fenêtre de contexte du gros modèle ?
R: Consult7 tentera d'assembler et d'envoyer autant que possible dans le contexte sélectionné du modèle. Pour des bases de code extrêmement vastes, envisagez de restreindre les motifs ou de diviser l'analyse.
Q: Une installation est-elle requise sur ma machine ?
R: Aucune installation manuelle n'est nécessaire ; uvx
gère Consult7 dans un environnement isolé automatiquement lorsque vous configurez via Claude Code ou Desktop.
Q: Comment passer des modes spéciaux comme "thinking" ?
R: Ajoutez |thinking
au nom de votre modèle dans votre invocation d'outil (par exemple, gemini-2.5-flash|thinking
). Certains modèles acceptent également des comptes de tokens de raisonnement personnalisés (rarement requis).
Q: Quels fournisseurs et clés API puis-je utiliser ?
R: Vous pouvez utiliser OpenAI, Google AI (Gemini) ou OpenRouter, mais vous devez fournir votre propre clé API valide pour chacun.