Consult7 MCP Server

Consult7 MCP Server

Consult7 MCP 伺服器是一個模型上下文協議 (MCP) 伺服器,可以讓 AI 代理分析大型代碼庫或文檔集合。它使用高級 LLM 模型,具備大量上下文窗口,即使代理本身的模型上下文長度有限。它允許遞歸文件收集,支持多個 AI 供應商,並通過 MCP 與 Claude Code 和 Claude Desktop 無縫集成,例如用於總結、搜索或通過單一查詢交叉參考大型項目。

Author: szeider


查看協議

什麼是 Consult7 MCP 伺服器?

Consult7 MCP 伺服器是一座橋樑,讓語言模型代理可以處理和分析數據集、代碼庫或文檔庫,這些內容過於龐大,無法放入其通常的上下文窗口。它利用外部 LLM(來自 OpenRouter、OpenAI 或 Google)來處理更大的上下文。它會根據用戶指定的模式提取所有相關文件,將它們發送給大窗口模型進行分析,並將結果直接返回給代理。該伺服器作為 Model Context Protocol 下的工具集成,便於發現和調用。

如何配置

Claude Code:
通過命令行添加 Consult7:

claude mcp add -s user consult7 uvx -- consult7 <provider> <api-key>

<provider> 替換為 openroutergoogleopenai,將 <api-key> 替換為您的實際 API 密鑰。

Claude Desktop:
編輯您的 mcpServers 配置:

{
  "mcpServers": {
    "consult7": {
      "type": "stdio",
      "command": "uvx",
      "args": ["consult7", "openrouter", "your-api-key"]
    }
  }
}

根據需要替換供應商和 API 密鑰。無需手動安裝伺服器;uvx 會在孤立的環境中自動下載和運行所有內容。

命令行選項:
您也可以直接測試連接:

uvx consult7 <provider> <api-key> [--test]

每次工具調用時選擇模型,而不是在配置時選擇。

如何使用

  1. 根據上面的描述在您的 Claude Code 或 Desktop 環境中配置 Consult7。
  2. 從您的 AI 代理使用 Consult7 工具提交查詢,並附上:
    • 要分析的目錄路徑
    • 用於選擇文件的正則表達式模式(例如,".*\\.py$" 用於 Python 文件)
    • 可選:指定特定的模型(可帶或不帶 |thinking 模式)
  3. Consult7 將遞歸收集所有匹配的文件,將它們組裝成一個大型上下文,將您的查詢和數據發送給選擇的供應商的大上下文 LLM,並將分析結果返回給您的代理。
  4. 測試連接的示例命令行查詢:
    uvx consult7 openai <api-key> --test
    
  5. 如果要從 Claude Code 中刪除 Consult7:
    claude mcp remove consult7 -s user
    

主要特點

  • AI 代理與具備極大上下文窗口的模型之間的無縫橋樑(超過 1M 的標記)
  • 支持多個主要供應商:OpenAI、Google AI(Gemini)、OpenRouter
  • 使用正則表達式模式遞歸收集和過濾來自任何目錄的文件
  • 直接將模型響應返回給您的代理,以便進一步的工作流自動化
  • 可在某些支持的情況下以 "thinking" 或推理模式運行,以進行更深入的分析
  • 可通過 Claude Code 或 Desktop 輕鬆安裝和管理,無需手動設置
  • 發現和調用與 MCP 客戶工具完全兼容

使用案例

  • 總結大型代碼庫: "總結這個 Python 項目的架構和主要組件"(分析所有 .py 文件)
  • 查找特定實現: "找到 authenticate_user 方法的實現並解釋它如何處理密碼驗證"(搜索 Python、JavaScript 和 TypeScript 文件)
  • 測試覆蓋分析: "列出所有測試文件並確定哪些組件缺乏測試覆蓋"(搜索和交叉引用測試相關文件)
  • 安全審查: "分析認證流程,逐步思考潛在漏洞"(使用 |thinking 模式進行深入分析)
  • 文檔提取: 從多樣和龐大的項目資料夾中提取高層次摘要、待辦事項或 API 文檔

常見問題

Q: Consult7 支援哪些模型?
A: Consult7 支持來自 OpenAI、Google(Gemini)和 OpenRouter 的主要大型上下文 LLM,包括上下文長度超過 100 萬的模型。模型選擇在每個查詢中是靈活的。

Q: Consult7 會閱讀並發送我的數據給外部供應商嗎?
A: 是的。匹配您路徑和模式的文件會被安全地(暫時)發送給選擇的雲供應商進行處理,具體取決於您的模型選擇。

Q: 如果我的代碼庫比大模型的上下文窗口還要大怎麼辦?
A: Consult7 將嘗試組裝並傳送能夠適應所選模型的上下文的最大數量。對於特別大的代碼庫,考慮縮小模式或分割分析。

Q: 在我的電腦上需要安裝嗎?
A: 不需要手動安裝;uvx 在您通過 Claude Code 或 Desktop 配置時會自動在孤立的環境中處理 Consult7。

Q: 如何傳遞特殊模式,例如 "thinking"?
A: 在工具調用中將 |thinking 添加到您的模型名稱中(例如,gemini-2.5-flash|thinking)。有些模型也接受自定義推理令牌數量(這通常不需要)。

Q: 我可以使用哪些供應商和 API 密鑰?
A: 您可以使用 OpenAI、Google AI(Gemini)或 OpenRouter,但您必須為每個供應商提供有效的 API 密鑰。