loading…
Search for a command to run...
loading…
Enables AI models to consult a configured advanced model (e.g., GPT-5.5, Claude Opus 4.7) via a streamable HTTP MCP server for deep analysis and expert advice o
Enables AI models to consult a configured advanced model (e.g., GPT-5.5, Claude Opus 4.7) via a streamable HTTP MCP server for deep analysis and expert advice on complex problems.
为你的 AI 模型配备一位"随时可以请教"的高级专家顾问。
当下游模型遇到复杂问题时,可以通过本 MCP 工具将问题转发给预先配置好的高级模型(如 GPT-5.5、Claude Opus 4.7 等), 获取深度分析与专业建议,再结合自身判断给出最终答案。
config.json 中集中管理,无需改动代码/mcpdescription,引导下游模型在正确时机调用question(必填)、context(背景)、focus(重点方向)┌─────────────────────────────────────────────────────────┐
│ 用户 (User) │
└───────────────────────────┬─────────────────────────────┘
│ 提问
▼
┌─────────────────────────────────────────────────────────┐
│ 下游模型 (Claude / GPT / Qwen …) │
│ │
│ 遇到复杂问题?→ 调用 consult_advanced_model 工具 │
└───────────────────────────┬─────────────────────────────┘
│ MCP Streamable HTTP
▼
┌─────────────────────────────────────────────────────────┐
│ Expert MCP Server │
│ (本项目 server.py) │
└───────────────────────────┬─────────────────────────────┘
│ OpenAI API 请求
▼
┌─────────────────────────────────────────────────────────┐
│ 上游高级模型 (GPT-5.5、Claude Opus 4.7 …) │
│ 返回深度分析意见 │
└─────────────────────────────────────────────────────────┘
git clone https://github.com/MineJPGcraft/Expert-mcp.git
cd Expert-mcp
pip install -r requirements.txt
推荐使用 Python 3.10+,建议在虚拟环境中安装。
复制并修改 config.json:
{
"host": "0.0.0.0",
"port": 8765,
"upstream": {
"base_url": "https://api.openai.com/v1",
"api_key": "sk-xxxxxxxxxxxxxxxxxxxx",
"model": "gpt-5.5",
"temperature": 0.3,
"max_tokens": 4096,
"timeout": 120,
"system_prompt": "你是一位顶尖的资深专家顾问,请对问题进行深入、严谨、可执行的分析。"
}
}
配置项说明见下方 ⚙️ 配置参考。
python server.py
看到如下日志即表示启动成功:
2025-xx-xx | INFO | mcp-advisor | 上游模型: gpt-4o @ https://api.openai.com/v1
2025-xx-xx | INFO | mcp-advisor | MCP 监听: http://0.0.0.0:8765/mcp
MCP 端点地址:
http://127.0.0.1:8765/mcp
在支持 MCP Streamable HTTP 的客户端(Cherry Studio、Cline、Claude Code 等)中添加如下配置:
{
"mcpServers": {
"expert-advisor": {
"type": "streamableHttp",
"url": "http://127.0.0.1:8765/mcp"
}
}
}
远程部署? 将
127.0.0.1替换为服务器的实际 IP 或域名,并确保防火墙放行对应端口。
| 字段 | 类型 | 默认值 | 说明 |
|---|---|---|---|
host |
string | "0.0.0.0" |
服务监听地址 |
port |
integer | 8765 |
服务监听端口 |
upstream.base_url |
string | — | 上游 API 的 base URL(OpenAI 兼容格式) |
upstream.api_key |
string | — | 上游 API Key |
upstream.model |
string | — | 上游模型名称,如 gpt-5.5、claude-opus-4-7 |
upstream.temperature |
float | 0.3 |
生成温度,建议分析类任务保持较低值 |
upstream.max_tokens |
integer | 4096 |
单次回复最大 Token 数 |
upstream.timeout |
float | 120 |
请求超时秒数 |
upstream.system_prompt |
string | 内置默认值 | 高级模型的系统提示词,可完全自定义 |
MCP_CONFIG=config.prod.json python server.py
下游模型可以调用的工具:
consult_advanced_model| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
question |
string | ✅ | 待咨询的核心问题,尽量完整清晰 |
context |
string | ❌ | 背景信息,如代码片段、用户需求、已尝试方案等 |
focus |
string | ❌ | 希望高级模型重点回答的方向 |
建议调用的场景:
不建议调用的场景:
只需修改 config.json 中的 upstream 部分即可对接不同服务商
mcp>=1.2.0
openai>=1.40.0
MIT License © 2026 MCJPG
Add this to claude_desktop_config.json and restart Claude Desktop.
{
"mcpServers": {
"expert-mcp": {
"command": "npx",
"args": []
}
}
}