什麼是 Consult7 MCP 伺服器?
Consult7 MCP 伺服器是一座橋樑,讓語言模型代理可以處理和分析數據集、代碼庫或文檔庫,這些內容過於龐大,無法放入其通常的上下文窗口。它利用外部 LLM(來自 OpenRouter、OpenAI 或 Google)來處理更大的上下文。它會根據用戶指定的模式提取所有相關文件,將它們發送給大窗口模型進行分析,並將結果直接返回給代理。該伺服器作為 Model Context Protocol 下的工具集成,便於發現和調用。
如何配置
Claude Code:
通過命令行添加 Consult7:
claude mcp add -s user consult7 uvx -- consult7 <provider> <api-key>
將 <provider>
替換為 openrouter
、google
或 openai
,將 <api-key>
替換為您的實際 API 密鑰。
Claude Desktop:
編輯您的 mcpServers
配置:
{
"mcpServers": {
"consult7": {
"type": "stdio",
"command": "uvx",
"args": ["consult7", "openrouter", "your-api-key"]
}
}
}
根據需要替換供應商和 API 密鑰。無需手動安裝伺服器;uvx
會在孤立的環境中自動下載和運行所有內容。
命令行選項:
您也可以直接測試連接:
uvx consult7 <provider> <api-key> [--test]
每次工具調用時選擇模型,而不是在配置時選擇。
如何使用
- 根據上面的描述在您的 Claude Code 或 Desktop 環境中配置 Consult7。
- 從您的 AI 代理使用 Consult7 工具提交查詢,並附上:
- 要分析的目錄路徑
- 用於選擇文件的正則表達式模式(例如,
".*\\.py$"
用於 Python 文件) - 可選:指定特定的模型(可帶或不帶
|thinking
模式)
- Consult7 將遞歸收集所有匹配的文件,將它們組裝成一個大型上下文,將您的查詢和數據發送給選擇的供應商的大上下文 LLM,並將分析結果返回給您的代理。
- 測試連接的示例命令行查詢:
uvx consult7 openai <api-key> --test
- 如果要從 Claude Code 中刪除 Consult7:
claude mcp remove consult7 -s user
主要特點
- AI 代理與具備極大上下文窗口的模型之間的無縫橋樑(超過 1M 的標記)
- 支持多個主要供應商:OpenAI、Google AI(Gemini)、OpenRouter
- 使用正則表達式模式遞歸收集和過濾來自任何目錄的文件
- 直接將模型響應返回給您的代理,以便進一步的工作流自動化
- 可在某些支持的情況下以 "thinking" 或推理模式運行,以進行更深入的分析
- 可通過 Claude Code 或 Desktop 輕鬆安裝和管理,無需手動設置
- 發現和調用與 MCP 客戶工具完全兼容
使用案例
- 總結大型代碼庫: "總結這個 Python 項目的架構和主要組件"(分析所有 .py 文件)
- 查找特定實現: "找到 authenticate_user 方法的實現並解釋它如何處理密碼驗證"(搜索 Python、JavaScript 和 TypeScript 文件)
- 測試覆蓋分析: "列出所有測試文件並確定哪些組件缺乏測試覆蓋"(搜索和交叉引用測試相關文件)
- 安全審查: "分析認證流程,逐步思考潛在漏洞"(使用 |thinking 模式進行深入分析)
- 文檔提取: 從多樣和龐大的項目資料夾中提取高層次摘要、待辦事項或 API 文檔
常見問題
Q: Consult7 支援哪些模型?
A: Consult7 支持來自 OpenAI、Google(Gemini)和 OpenRouter 的主要大型上下文 LLM,包括上下文長度超過 100 萬的模型。模型選擇在每個查詢中是靈活的。
Q: Consult7 會閱讀並發送我的數據給外部供應商嗎?
A: 是的。匹配您路徑和模式的文件會被安全地(暫時)發送給選擇的雲供應商進行處理,具體取決於您的模型選擇。
Q: 如果我的代碼庫比大模型的上下文窗口還要大怎麼辦?
A: Consult7 將嘗試組裝並傳送能夠適應所選模型的上下文的最大數量。對於特別大的代碼庫,考慮縮小模式或分割分析。
Q: 在我的電腦上需要安裝嗎?
A: 不需要手動安裝;uvx
在您通過 Claude Code 或 Desktop 配置時會自動在孤立的環境中處理 Consult7。
Q: 如何傳遞特殊模式,例如 "thinking"?
A: 在工具調用中將 |thinking
添加到您的模型名稱中(例如,gemini-2.5-flash|thinking
)。有些模型也接受自定義推理令牌數量(這通常不需要)。
Q: 我可以使用哪些供應商和 API 密鑰?
A: 您可以使用 OpenAI、Google AI(Gemini)或 OpenRouter,但您必須為每個供應商提供有效的 API 密鑰。