Consult7 MCP Server

Consult7 MCP Server

Consult7 MCP Server 是一个模型上下文协议 (MCP) 服务器,允许 AI 代理分析大型代码库或文档集合。它使用了先进的 LLM 模型,拥有巨大的上下文窗口,即使代理自己的模型上下文长度有限。它支持递归文件收集,接入多个 AI 提供商,并通过 MCP 与 Claude Code 和 Claude Desktop 无缝集成。例如,可以通过单个查询对大型项目进行总结、搜索或交叉引用。

Author: szeider


查看协议

什么是 Consult7 MCP Server?

Consult7 MCP Server 是一个桥梁,它允许语言模型代理处理和分析数据集、代码库或文档库,这些内容太大而无法放入通常的上下文窗口中。它利用外部 LLM(来自 OpenRouter、OpenAI 或 Google)来处理更大的上下文,通过提取符合用户指定模式的所有相关文件,将它们发送到具有大窗口的模型进行分析,并直接将结果返回给代理。该服务器作为模型上下文协议下的工具集成,便于发现和调用。

如何配置

Claude Code:
通过命令行添加 Consult7:

claude mcp add -s user consult7 uvx -- consult7 <provider> <api-key>

<provider> 替换为 openroutergoogleopenai,将 <api-key> 替换为您实际的 API 密钥。

Claude Desktop:
编辑您的 mcpServers 配置:

{
  "mcpServers": {
    "consult7": {
      "type": "stdio",
      "command": "uvx",
      "args": ["consult7", "openrouter", "your-api-key"]
    }
  }
}

根据需要替换提供商和 API 密钥。无需手动安装服务器;uvx 会在隔离环境中自动下载和运行所有内容。

命令行选项:
您也可以直接测试连接:

uvx consult7 <provider> <api-key> [--test]

模型在每次工具调用时选择,而不是在配置时选择。

如何使用

  1. 根据上述描述在您的 Claude Code 或 Desktop 环境中配置 Consult7。
  2. 从您的 AI 代理中,使用 Consult7 工具提交查询,包含:
    • 要分析的目录路径
    • 选择文件的正则表达式模式(例如,".*\\.py$" 用于 Python 文件)
    • 可选:指定特定模型(是否开启 |thinking 模式)
  3. Consult7 将递归收集所有匹配文件,将其组合成一个大上下文,并将您的查询及数据发送到所选提供商的大上下文 LLM,然后将分析结果返回给您的代理。
  4. 测试连接的示例命令行查询:
    uvx consult7 openai <api-key> --test
    
  5. 从 Claude Code 中删除 Consult7:
    claude mcp remove consult7 -s user
    

主要特点

  • 无缝连接 AI 代理与具有极大上下文窗口的模型(1M+ 令牌)
  • 支持多个领先供应商:OpenAI、Google AI(Gemini)、OpenRouter
  • 使用正则表达式从任何目录中递归收集和筛选文件
  • 将模型响应直接返回给您的代理,以便进一步自动化工作流程
  • 可以在支持的情况下以 "thinking" 或推理模式运行以进行更深入的分析
  • 通过 Claude Code 或 Desktop 容易安装和管理,无需手动设置
  • 与 MCP 客户端工具完全兼容的发现和调用

使用案例

  • 大代码库总结: "总结此 Python 项目的架构和主要组件"(分析所有 .py 文件)
  • 定位特定实现: "找到 authenticate_user 方法的实现,并解释它如何处理密码验证"(搜索 Python、JavaScript 和 TypeScript 文件)
  • 测试覆盖率分析: "列出所有测试文件,并识别哪些组件缺乏测试覆盖"(搜索和交叉引用测试相关文件)
  • 安全审查: "分析身份验证流程,并逐步思考潜在漏洞"(请求使用 |thinking 模式的深入分析)
  • 文档提取: 从不同和庞大的项目文件夹中提取高层次总结、待办事项或 API 文档

FAQ

问:Consult7 支持哪些模型?
答:Consult7 支持来自 OpenAI、Google(Gemini)和 OpenRouter 的主要大上下文 LLM,包括上下文长度超过 100 万令牌的模型。每个查询的模型选择很灵活。

问:Consult7 是否会读取并将我的数据发送给外部提供商?
答:是的。符合您路径和模式的文件会被(临时、安全地)发送到所选择的云提供商进行处理,具体取决于您的模型选择。

问:如果我的代码库比大模型的上下文窗口还大怎么办?
答:Consult7 将尝试组装并发送尽可能多的内容到选定模型的上下文中。对于极大的代码库,可以考虑缩小模式或拆分分析。

问:我需要在我的机器上进行任何安装吗?
答:无需手动安装;当您通过 Claude Code 或 Desktop 配置时,uvx 会自动在隔离环境中处理 Consult7。

问:如何传递像 "thinking" 这样的特殊模式?
答:在工具调用时将 |thinking 添加到您的模型名称中(例如,gemini-2.5-flash|thinking)。一些模型也接受自定义推理令牌计数(很少需要)。

问:我可以使用哪些提供商和 API 密钥?
答:您可以使用 OpenAI、Google AI(Gemini)或 OpenRouter,但您必须为每个提供自己的有效 API 密钥。