什么是 Consult7 MCP Server?
Consult7 MCP Server 是一个桥梁,它允许语言模型代理处理和分析数据集、代码库或文档库,这些内容太大而无法放入通常的上下文窗口中。它利用外部 LLM(来自 OpenRouter、OpenAI 或 Google)来处理更大的上下文,通过提取符合用户指定模式的所有相关文件,将它们发送到具有大窗口的模型进行分析,并直接将结果返回给代理。该服务器作为模型上下文协议下的工具集成,便于发现和调用。
如何配置
Claude Code:
通过命令行添加 Consult7:
claude mcp add -s user consult7 uvx -- consult7 <provider> <api-key>
将 <provider>
替换为 openrouter
、google
或 openai
,将 <api-key>
替换为您实际的 API 密钥。
Claude Desktop:
编辑您的 mcpServers
配置:
{
"mcpServers": {
"consult7": {
"type": "stdio",
"command": "uvx",
"args": ["consult7", "openrouter", "your-api-key"]
}
}
}
根据需要替换提供商和 API 密钥。无需手动安装服务器;uvx
会在隔离环境中自动下载和运行所有内容。
命令行选项:
您也可以直接测试连接:
uvx consult7 <provider> <api-key> [--test]
模型在每次工具调用时选择,而不是在配置时选择。
如何使用
- 根据上述描述在您的 Claude Code 或 Desktop 环境中配置 Consult7。
- 从您的 AI 代理中,使用 Consult7 工具提交查询,包含:
- 要分析的目录路径
- 选择文件的正则表达式模式(例如,
".*\\.py$"
用于 Python 文件) - 可选:指定特定模型(是否开启
|thinking
模式)
- Consult7 将递归收集所有匹配文件,将其组合成一个大上下文,并将您的查询及数据发送到所选提供商的大上下文 LLM,然后将分析结果返回给您的代理。
- 测试连接的示例命令行查询:
uvx consult7 openai <api-key> --test
- 从 Claude Code 中删除 Consult7:
claude mcp remove consult7 -s user
主要特点
- 无缝连接 AI 代理与具有极大上下文窗口的模型(1M+ 令牌)
- 支持多个领先供应商:OpenAI、Google AI(Gemini)、OpenRouter
- 使用正则表达式从任何目录中递归收集和筛选文件
- 将模型响应直接返回给您的代理,以便进一步自动化工作流程
- 可以在支持的情况下以 "thinking" 或推理模式运行以进行更深入的分析
- 通过 Claude Code 或 Desktop 容易安装和管理,无需手动设置
- 与 MCP 客户端工具完全兼容的发现和调用
使用案例
- 大代码库总结: "总结此 Python 项目的架构和主要组件"(分析所有 .py 文件)
- 定位特定实现: "找到 authenticate_user 方法的实现,并解释它如何处理密码验证"(搜索 Python、JavaScript 和 TypeScript 文件)
- 测试覆盖率分析: "列出所有测试文件,并识别哪些组件缺乏测试覆盖"(搜索和交叉引用测试相关文件)
- 安全审查: "分析身份验证流程,并逐步思考潜在漏洞"(请求使用 |thinking 模式的深入分析)
- 文档提取: 从不同和庞大的项目文件夹中提取高层次总结、待办事项或 API 文档
FAQ
问:Consult7 支持哪些模型?
答:Consult7 支持来自 OpenAI、Google(Gemini)和 OpenRouter 的主要大上下文 LLM,包括上下文长度超过 100 万令牌的模型。每个查询的模型选择很灵活。
问:Consult7 是否会读取并将我的数据发送给外部提供商?
答:是的。符合您路径和模式的文件会被(临时、安全地)发送到所选择的云提供商进行处理,具体取决于您的模型选择。
问:如果我的代码库比大模型的上下文窗口还大怎么办?
答:Consult7 将尝试组装并发送尽可能多的内容到选定模型的上下文中。对于极大的代码库,可以考虑缩小模式或拆分分析。
问:我需要在我的机器上进行任何安装吗?
答:无需手动安装;当您通过 Claude Code 或 Desktop 配置时,uvx
会自动在隔离环境中处理 Consult7。
问:如何传递像 "thinking" 这样的特殊模式?
答:在工具调用时将 |thinking
添加到您的模型名称中(例如,gemini-2.5-flash|thinking
)。一些模型也接受自定义推理令牌计数(很少需要)。
问:我可以使用哪些提供商和 API 密钥?
答:您可以使用 OpenAI、Google AI(Gemini)或 OpenRouter,但您必须为每个提供自己的有效 API 密钥。