Qwen Max MCP Server

Qwen Max MCP Server

Qwen Max MCP 服务器是一个强大的模型上下文协议 (MCP) 服务器实现,允许 Qwen Max 系列大型语言模型无缝集成作为支持 MCP 的应用程序的 AI 模型端点,例如 Claude Desktop,提供高性能的文本生成和灵活的模型选择。

Author: 66julienmartin


查看协议

什么是 Qwen Max MCP 服务器?

Qwen Max MCP 服务器是一个基于 Node.js 的 MCP 服务器,将 Qwen Max、Qwen Plus 和 Qwen Turbo 模型暴露为具有上下文感知的端点,以供 AI 驱动的应用程序使用。它使您能够在本地或云工作流程中轻松即插即用接入强大的 LLM,利用阿里巴巴的 Qwen 模型的可扩展性、可靠性和商业实力,通过开放的 MCP 生态系统。

如何配置 Qwen Max MCP 服务器

  1. 确保已安装 Node.js (v18+)、npm 和 Claude Desktop。
  2. 从阿里巴巴云获取 Dashscope API 密钥。
  3. 克隆或安装服务器(通过 Smithery 或手动)。
  4. 在目录中创建 .env 文件,并填写您的 Dashscope API 密钥:
    DASHSCOPE_API_KEY=你的-api-key-here
    
  5. 对于 Claude Desktop 集成,添加或更新您的 mcpServers 配置:
    {
      "mcpServers": {
        "qwen_max": {
          "command": "node",
          "args": ["/path/to/Qwen_Max/build/index.js"],
          "env": {
            "DASHSCOPE_API_KEY": "你的-api-key-here"
          }
        }
      }
    }
    
  6. 可选地在 src/index.ts 中设置所需的模型(qwen-maxqwen-plusqwen-turbo)和参数。

如何使用 Qwen Max MCP 服务器

  • 使用 npm run start 启动服务器(或在观察模式下使用 npm run dev)。
  • 将支持 MCP 的客户端(例如 Claude Desktop)连接到服务器。
  • 在客户端中通过工具调用或资源选择选择或调用 Qwen 模型作为 AI 后端。
  • 根据您的任务需要自定义提示和推理参数(如 max_tokenstemperature)。
  • 通过 MCP 管道查看详细结果和输出。

主要特性

  • Qwen Max、Plus 和 Turbo 商业模型的无缝集成到兼容 MCP 的应用中
  • 大的令牌上下文窗口和高效的批处理,用于长文档或对话
  • 可配置的推理参数(例如 max_tokenstemperature
  • 强大的错误处理和针对常见问题的信息丰富的错误消息
  • 通过 Dashscope API 安全连接到阿里巴巴云
  • 快速模型切换和快照/模型版本支持
  • 开源和 MIT 许可证

使用案例

  • 在商业、研究或创意工作流程中生成高精度的文本、代码或指令
  • 将商业级 LLM 能力集成到开发工具(如 IDE)或 AI 代理中
  • 为数据分析、客户服务或文档处理构建可靠且低延迟的 AI 驱动助手
  • 服务具有长上下文的应用(摘要、法律或技术文档),受益于大的上下文窗口
  • 快速原型开发和测试在主要 Qwen 模型变体之间切换的工作流程

常见问题解答

Q1: 我应该选择哪个模型——Qwen Max、Plus 还是 Turbo?
A1: 对于需要强推理的复杂或多步骤任务,选择 Qwen Max。选择 Qwen Plus 以平衡成本、速度和质量;适合一般或中等复杂的任务。使用 Qwen Turbo 进行简单或短提示的快速、低成本推理。

Q2: 我如何改变默认模型?
A2: 根据需要,将项目中的 src/index.ts 中的 model 字段修改为 qwen-maxqwen-plusqwen-turbo,然后重启服务器。

Q3: 如果我收到身份验证或 API 密钥错误怎么办?
A3: 检查 .env 文件和服务器的环境配置中的 DASHSCOPE_API_KEY。确保密钥有效且具有足够的配额。

Q4: 我如何调整输出的随机性?
A4: 在进行工具调用时使用 temperature 参数。较低的值使回复更具确定性;较高的值增加创造性。

Q5: Qwen 模型是否提供免费令牌?
A5: 是的,所有 Qwen 模型每个账户都提供 100 万个令牌的免费配额,之后依据使用量进行收费。