loading…
Search for a command to run...
loading…
Enables LLMs to use llama.cpp models via MCP protocol by bridging MCP requests to an OpenAI-compatible API.
Enables LLMs to use llama.cpp models via MCP protocol by bridging MCP requests to an OpenAI-compatible API.
Docker で MCP サーバを起動し、内部で llama.cpp の OpenAI 互換 API を呼び出す構成です。
.env.example を .env にコピーMCP_API_TOKEN を 32 文字以上のランダム値に設定echo "MCP_API_TOKEN=$(openssl rand -hex 32)" >> .env
LLAMA_CPP_SERVER_URL をリモートの llama.cpp に向けるdocker compose up -d --build
docker compose down
http://localhost:8000/mcpstreamable-http認証が有効になっているため、Bearer トークンが必要です。 401 が返る場合は未認証、406 が返る場合は到達確認としては正常です (MCP エンドポイントは Accept ヘッダー前提のため)。
# 未認証 -> 401
curl -i http://localhost:8000/mcp
# 認証あり -> 406 (到達OK)
curl -i -H "Authorization: Bearer $MCP_API_TOKEN" http://localhost:8000/mcp
Claude Code の MCP は ~/.claude.json で管理されます。
ローカルスコープ(特定プロジェクトのみ)で手動設定する場合は、
client-config.example.json の形式を ~/.claude.json に反映してください。
claude mcp add --transport http local-agent-helper http://localhost:8000/mcp \
--header "Authorization: Bearer $MCP_API_TOKEN"
claude mcp list
claude mcp get local-agent-helper
--scope user を付けると全プロジェクトで利用可能です。--scope project を使うと、プロジェクト直下の .mcp.json に保存されます。.env.example を .env にコピーして利用できます。
MCP_TRANSPORT (既定: streamable-http)FASTMCP_HOST (既定: 0.0.0.0)FASTMCP_PORT (既定: 8000)LLAMA_CPP_SERVER_URLLLAMA_CPP_SERVER_MODELLLAMA_CPP_SERVER_TIMEOUTMCP_API_TOKEN (必須・32文字以上)MAX_INPUT_CHARS (既定: 200000)Add this to claude_desktop_config.json and restart Claude Desktop.
{
"mcpServers": {
"mcp-bridge": {
"command": "npx",
"args": []
}
}
}