此配置方案使用 MiniMax-M2.7 作为执行者(Executor),GLM-5 作为审稿人(Reviewer)。
与方案 B(GLM + MiniMax)正好相反——适合需要 MiniMax 强大推理能力作为主力,GLM 进行代码审查的场景。
| 角色 | 方案 A:GLM + GPT | 方案 B:GLM + MiniMax | 方案 C:MiniMax + GLM |
|---|---|---|---|
| 执行者(Claude Code) | GLM-5(智谱 API) | GLM-5(智谱 API) | MiniMax-M2.7(MiniMax API) |
| 审稿人(Skill 工具) | mcp__codex__codex |
mcp__llm-chat__chat |
mcp__llm-chat__chat |
| 需要 OpenAI API? | 是 | 否 | 否 |
npm install -g @anthropic-ai/claude-codegit clone https://github.com/wanshuiyin/Auto-claude-code-research-in-sleep.git
cd Auto-claude-code-research-in-sleep/mcp-servers/llm-chat
pip install -r requirements.txt
cd ../..编辑 ~/.claude/settings.json:
nano ~/.claude/settings.json添加以下配置:
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your_minimax_api_key",
"ANTHROPIC_BASE_URL": "https://api.minimax.io/anthropic",
"API_TIMEOUT_MS": "3000000",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "MiniMax-M2.7",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "MiniMax-M2.7",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "MiniMax-M2.7"
},
"mcpServers": {
"llm-chat": {
"command": "python",
"args": [
"/path/to/mcp-servers/llm-chat/server.py"
],
"env": {
"LLM_API_KEY": "your_glm_api_key",
"LLM_BASE_URL": "https://open.bigmodel.cn/api/paas/v4/",
"LLM_MODEL": "GLM-5",
"LLM_SERVER_NAME": "glm"
}
}
}
}注意:将
/path/to/mcp-servers/llm-chat/server.py替换为实际路径。
保存:Ctrl+O → Enter → Ctrl+X
# 启动 Claude Code
claude
# 验证 MiniMax 连接
> 请简单介绍一下你自己,告诉我你是什么模型
# 验证 GLM MCP
> 请使用 mcp__glm__chat 工具审查一段简单的代码| 配置项 | 值 | 说明 |
|---|---|---|
ANTHROPIC_AUTH_TOKEN |
MiniMax API Key | 从 MiniMax 开放平台 获取 |
ANTHROPIC_BASE_URL |
https://api.minimax.io/anthropic |
MiniMax Anthropic 兼容端点 |
ANTHROPIC_DEFAULT_*_MODEL |
MiniMax-M2.7 |
使用 MiniMax-M2.7 作为所有模型 |
| 配置项 | 值 | 说明 |
|---|---|---|
LLM_API_KEY |
GLM API Key | 从 智谱开放平台 获取 |
LLM_BASE_URL |
https://open.bigmodel.cn/api/paas/v4/ |
GLM OpenAI 兼容端点 |
LLM_MODEL |
GLM-5 |
使用 GLM-5 作为审稿模型 |
| MCP 工具 | mcp__glm__chat |
调用 GLM 进行审稿 |
- 访问 MiniMax 开放平台
- 注册/登录账号
- 进入「API 密钥管理」
- 创建新的 API Key
- 访问 智谱开放平台
- 注册/登录账号
- 进入「API Keys」页面
- 创建新的 API Key
┌─────────────────────────────────────────────────────────────┐
│ Auto-claude-code-research │
│ (Sleep Mode Research) │
└─────────────────────────────────────────────────────────────┘
│
▼
┌───────────────────────────────┐
│ MiniMax-M2.7 │
│ (Executor) │
│ │
│ • 理解研究任务 │
│ • 执行代码编写 │
│ • 运行测试验证 │
│ • 生成研究报告 │
└───────────────────────────────┘
│
▼
┌───────────────────────────────┐
│ GLM-5 (via llm-chat) │
│ (Reviewer) │
│ │
│ • 代码质量审查 │
│ • 逻辑正确性验证 │
│ • 安全漏洞检查 │
│ • 改进建议生成 │
└───────────────────────────────┘
│
▼
┌───────────────────────────────┐
│ 最终输出 │
│ (代码 + 报告 + 审查意见) │
└───────────────────────────────┘
此方案与方案 B 的关键区别:
| 方案 B:GLM + MiniMax | 方案 C:MiniMax + GLM | |
|---|---|---|
| 审稿人 API | MiniMax OpenAI 兼容 API | GLM OpenAI 兼容 API |
| MCP 工具 | mcp__codex__codex |
mcp__glm__chat |
| 模型 | MiniMax-M2.5 | GLM-5 |
检查以下几点:
- API Key 是否正确配置
- Base URL 是否正确(注意末尾的
/) - 账户余额是否充足
确保:
llm-chat/server.py路径正确- Python 依赖已安装 (
pip install -r requirements.txt) mcp__glm__chat工具可用- 网络可访问智谱 API 端点
此配置方案由社区贡献,适用于 Auto-claude-code-research-in-sleep 项目