Skip to content

Latest commit

 

History

History
195 lines (150 loc) · 6.77 KB

File metadata and controls

195 lines (150 loc) · 6.77 KB

MiniMax-M2.7 + GLM 配置教程 (Alt C)

概述

此配置方案使用 MiniMax-M2.7 作为执行者(Executor),GLM-5 作为审稿人(Reviewer)。

与方案 B(GLM + MiniMax)正好相反——适合需要 MiniMax 强大推理能力作为主力,GLM 进行代码审查的场景。

模型组合对比

角色 方案 A:GLM + GPT 方案 B:GLM + MiniMax 方案 C:MiniMax + GLM
执行者(Claude Code) GLM-5(智谱 API) GLM-5(智谱 API) MiniMax-M2.7(MiniMax API)
审稿人(Skill 工具) mcp__codex__codex mcp__llm-chat__chat mcp__llm-chat__chat
需要 OpenAI API?

配置步骤

第 1 步:安装 Claude Code

npm install -g @anthropic-ai/claude-code

第 2 步:克隆 MCP Servers

git clone https://github.com/wanshuiyin/Auto-claude-code-research-in-sleep.git
cd Auto-claude-code-research-in-sleep/mcp-servers/llm-chat
pip install -r requirements.txt
cd ../..

第 3 步:配置 ~/.claude/settings.json

编辑 ~/.claude/settings.json

nano ~/.claude/settings.json

添加以下配置:

{
    "env": {
        "ANTHROPIC_AUTH_TOKEN": "your_minimax_api_key",
        "ANTHROPIC_BASE_URL": "https://api.minimax.io/anthropic",
        "API_TIMEOUT_MS": "3000000",
        "ANTHROPIC_DEFAULT_HAIKU_MODEL": "MiniMax-M2.7",
        "ANTHROPIC_DEFAULT_SONNET_MODEL": "MiniMax-M2.7",
        "ANTHROPIC_DEFAULT_OPUS_MODEL": "MiniMax-M2.7"
    },
    "mcpServers": {
        "llm-chat": {
            "command": "python",
            "args": [
                "/path/to/mcp-servers/llm-chat/server.py"
            ],
            "env": {
                "LLM_API_KEY": "your_glm_api_key",
                "LLM_BASE_URL": "https://open.bigmodel.cn/api/paas/v4/",
                "LLM_MODEL": "GLM-5",
                "LLM_SERVER_NAME": "glm"
            }
        }
    }
}

注意:将 /path/to/mcp-servers/llm-chat/server.py 替换为实际路径。

保存:Ctrl+OEnterCtrl+X

第 4 步:验证配置

# 启动 Claude Code
claude

# 验证 MiniMax 连接
> 请简单介绍一下你自己,告诉我你是什么模型

# 验证 GLM MCP
> 请使用 mcp__glm__chat 工具审查一段简单的代码

配置说明

执行者配置(MiniMax)

配置项 说明
ANTHROPIC_AUTH_TOKEN MiniMax API Key MiniMax 开放平台 获取
ANTHROPIC_BASE_URL https://api.minimax.io/anthropic MiniMax Anthropic 兼容端点
ANTHROPIC_DEFAULT_*_MODEL MiniMax-M2.7 使用 MiniMax-M2.7 作为所有模型

审稿人配置(GLM via llm-chat MCP)

配置项 说明
LLM_API_KEY GLM API Key 智谱开放平台 获取
LLM_BASE_URL https://open.bigmodel.cn/api/paas/v4/ GLM OpenAI 兼容端点
LLM_MODEL GLM-5 使用 GLM-5 作为审稿模型
MCP 工具 mcp__glm__chat 调用 GLM 进行审稿

API 密钥获取

MiniMax API Key

  1. 访问 MiniMax 开放平台
  2. 注册/登录账号
  3. 进入「API 密钥管理」
  4. 创建新的 API Key

GLM API Key

  1. 访问 智谱开放平台
  2. 注册/登录账号
  3. 进入「API Keys」页面
  4. 创建新的 API Key

工作流程

┌─────────────────────────────────────────────────────────────┐
│                    Auto-claude-code-research                │
│                    (Sleep Mode Research)                    │
└─────────────────────────────────────────────────────────────┘
                              │
                              ▼
              ┌───────────────────────────────┐
              │      MiniMax-M2.7             │
              │      (Executor)               │
              │                               │
              │  • 理解研究任务                 │
              │  • 执行代码编写                 │
              │  • 运行测试验证                 │
              │  • 生成研究报告                 │
              └───────────────────────────────┘
                              │
                              ▼
              ┌───────────────────────────────┐
              │      GLM-5 (via llm-chat)    │
              │      (Reviewer)               │
              │                               │
              │  • 代码质量审查                │
              │  • 逻辑正确性验证              │
              │  • 安全漏洞检查                │
              │  • 改进建议生成                │
              └───────────────────────────────┘
                              │
                              ▼
              ┌───────────────────────────────┐
              │         最终输出               │
              │    (代码 + 报告 + 审查意见)    │
              └───────────────────────────────┘

关键区别

此方案与方案 B 的关键区别:

方案 B:GLM + MiniMax 方案 C:MiniMax + GLM
审稿人 API MiniMax OpenAI 兼容 API GLM OpenAI 兼容 API
MCP 工具 mcp__codex__codex mcp__glm__chat
模型 MiniMax-M2.5 GLM-5

常见问题

Q: MiniMax API 返回错误

检查以下几点:

  • API Key 是否正确配置
  • Base URL 是否正确(注意末尾的 /
  • 账户余额是否充足

Q: GLM MCP 未生效

确保:

  • llm-chat/server.py 路径正确
  • Python 依赖已安装 (pip install -r requirements.txt)
  • mcp__glm__chat 工具可用
  • 网络可访问智谱 API 端点

参考


此配置方案由社区贡献,适用于 Auto-claude-code-research-in-sleep 项目