loading…
Search for a command to run...
loading…
An MCP server that enables local AI models to receive guidance from remote 'senior' AI providers like OpenAI, Anthropic, and Gemini to solve programming problem
An MCP server that enables local AI models to receive guidance from remote 'senior' AI providers like OpenAI, Anthropic, and Gemini to solve programming problems. It features intelligent multi-turn dialogue management, context synchronization, and automated session history tracking.
让本地 AI 在遇到复杂编程问题时,向远程大模型继续请教的 MCP 服务。
当前仓库对应的是“可长期使用”的版本,已经补齐了这些关键能力:
sync_context 文件同步session_id)这次主线更新,重点补的是这些:
session_id 会话隔离,避免不同问题串上下文AURAI_TEMPERATURE、AURAI_MAX_ITERATIONS、AURAI_LOG_LEVEL 等真实可用配置project_info、补充回答等上下文真正发给上级顾问AURAI_CONTEXT_WINDOW 现在会真正生效sync_context 支持自动把代码/配置等文本文件转成可发送文本,不再要求手动复制成 .txt如果你是第一次接触这个仓库,最重要的两点是:
sync_context这个 MCP 适合放在 Claude Code 或其他支持 stdio 方式的 MCP 客户端里使用。
典型场景:
consult_aurai
主要咨询工具。提交问题、代码片段、上下文、已尝试方案,获取上级顾问的分析和下一步建议。
sync_context
同步代码和文档上下文。
现在不只支持 .txt/.md,还会自动把 .py/.js/.ts/.json/.yaml/.toml/.ini 等文本文件转成适合发送的文本内容。
report_progress
把执行结果回报给上级顾问,继续下一轮迭代。
get_status
查看当前会话状态、历史数量、模型与历史文件路径。
更详细的安装步骤见:
这里先给一份最常用的安装流程。
# 需要 Python 3.10+
python --version
# 进入仓库目录
cd G:\codex\mcp-aurai-server
python -m venv venv
venv\Scripts\activate
pip install -e ".[all-dev]"
claude mcp add --scope user --transport stdio aurai-advisor ^
--env AURAI_API_KEY="your-api-key" ^
--env AURAI_BASE_URL="https://api.example.com/v1" ^
--env AURAI_MODEL="gpt-4o" ^
-- "G:\codex\mcp-aurai-server\venv\Scripts\python.exe" "-m" "mcp_aurai.server"
说明:
AURAI_BASE_URL 必须是 OpenAI 兼容接口地址custom 方式,不再使用旧的 AURAI_PROVIDER--scope user 表示在所有项目里都可用,最省心claude mcp list
pytest
预期:
claude mcp list 能看到 aurai-advisorpytest 通过consult_aurai(
problem_type="runtime_error",
error_message="启动时报 KeyError: api_key",
code_snippet="config = load_config()\napi_key = config['api_key']",
context={
"file_path": "src/config.py",
"terminal_output": "Traceback ...",
}
)
sync_context(
operation="incremental",
files=["src/main.py", "config/settings.json", "README.md"],
project_info={
"project_name": "My Project",
"tech_stack": "Python + FastAPI"
}
)
consult_aurai(
problem_type="runtime_error",
error_message="请结合已同步文件帮我排查启动失败"
)
注意:
main.py 复制成 main.txtconsult_aurai(
problem_type="runtime_error",
error_message="问题 A",
session_id="issue-a"
)
consult_aurai(
problem_type="design_issue",
error_message="问题 B",
session_id="issue-b"
)
这能避免不同问题互相串台。
.md、.markdown、.mdx.txt.py .js .ts .tsx.json .yaml .yml .toml.ini .cfg .env.java .go .rs .cpp .cs.txt/.md,但内容是文本的文件.txt 或 .md 的发送名如果一批文件里既有代码又有图片:
skipped_files| 变量 | 说明 |
|---|---|
AURAI_API_KEY |
API 密钥 |
AURAI_BASE_URL |
OpenAI 兼容接口地址 |
AURAI_MODEL |
模型名称 |
| 变量 | 说明 | 默认值 |
|---|---|---|
AURAI_TEMPERATURE |
温度 | 0.7 |
AURAI_MAX_ITERATIONS |
最大迭代轮数 | 10 |
AURAI_MAX_HISTORY |
每个会话保留的历史条数上限 | 50 |
AURAI_CONTEXT_WINDOW |
总上下文窗口大小 | 200000 |
AURAI_MAX_MESSAGE_TOKENS |
单条大文件消息大小上限 | 150000 |
AURAI_MAX_TOKENS |
最大输出长度 | 32000 |
AURAI_LOG_LEVEL |
日志级别 | INFO |
AURAI_ENABLE_PERSISTENCE |
是否持久化历史 | true |
AURAI_HISTORY_PATH |
默认会话历史文件路径 | ~/.mcp-aurai/history.json |
AURAI_HISTORY_LOCK_TIMEOUT |
历史文件锁等待时间(秒) | 10 |
AURAI_ENABLE_HISTORY_SUMMARY |
是否启用历史摘要 | true |
AURAI_HISTORY_SUMMARY_KEEP_RECENT |
摘要后保留的最近原始轮数 | 3 |
AURAI_HISTORY_SUMMARY_TRIGGER |
触发摘要的原始记录阈值 | 8 |
session_id 都有各自的历史defaultsync_context 会尽量保留原样sync_contextpytest
当前主线覆盖的重点包括:
旧版本要求先手动转成 .txt。当前版本已经支持自动转换文本文件。
如果还是没收到,优先检查:
sync_context 返回里的 uploaded_files / skipped_files如果你希望完全隔离,给不同问题传不同 session_id。
这是历史摘要在工作。旧历史被压成纪要,不是丢了,而是换成更省上下文的“会议纪要”。
Добавь это в claude_desktop_config.json и перезапусти Claude Desktop.
{
"mcpServers": {
"aurai-advisor-mcp": {
"command": "npx",
"args": []
}
}
}