loading…
Search for a command to run...
loading…
A MCP server for Windows/Linux that provides 90+ tools enabling AI assistants to systematically manage local systems, including system probing, command executio
A MCP server for Windows/Linux that provides 90+ tools enabling AI assistants to systematically manage local systems, including system probing, command execution, file editing, network diagnostics, and more.
一个面向 Windows / Linux 实验环境的 MCP Server,用来给本地 Agent / MCP Client 暴露常用的本机操作能力。
许可证:MIT
allcanuse-mcp 的目标不是只给模型几个零散小工具,而是尽量把“这台实验机能做的事”系统化地暴露给模型。
接入后,模型不只是能读文件和跑命令,而是能把本机当成一个可操作的工作站来使用。
当前已经提供 90+ 个 tools,核心能力包括:
cmd、PowerShell,支持把命令输出继续用于后续决策接入这个 MCP 后,模型可以做的不只是“回答问题”,而是可以在本机上主动推进任务,例如:
wget 一样把网络文件拉到本地如果你想让模型更像一个真正能动手的本地助手,而不只是会说不会做,allcanuse-mcp 的定位就是把这些能力统一交到模型手里。
现在主流 AI 客户端接入 MCP 时,通常只需要:
不需要你手动先启动这个服务端进程,客户端会按配置自动拉起。
先安装当前项目最基础的运行依赖:
pip install -r requirements.txt
如果你是开发者,或者希望本地命令更短,也可以:
pip install -e .
配置文件通常是:
~/.codex/config.toml
示例:
[mcp_servers.allcanuse]
command = "python"
args = ["run_server.py", "--transport", "stdio"]
cwd = "D:/path/to/allcanuse"
enabled = true
startup_timeout_ms = 30000
tool_timeout_sec = 180
如果已经执行过 pip install -e .,也可以改成:
[mcp_servers.allcanuse]
command = "allcanuse-mcp"
enabled = true
startup_timeout_ms = 30000
tool_timeout_sec = 180
项目内常见做法是在仓库根目录写 .mcp.json:
{
"mcpServers": {
"allcanuse": {
"type": "stdio",
"command": "python",
"args": ["run_server.py", "--transport", "stdio"],
"env": {}
}
}
}
如果已经安装为命令行入口,也可以:
{
"mcpServers": {
"allcanuse": {
"type": "stdio",
"command": "allcanuse-mcp",
"args": [],
"env": {}
}
}
}
OpenCode 通常写在用户目录的 .config/opencode 目录的 opencode.json 或 opencode.jsonc 的 mcp 字段里:
{
"$schema": "https://opencode.ai/config.json",
"mcp": {
"allcanuse": {
"type": "local",
"command": ["python", "D:/*****/allcanuse/run_server.py", "--transport", "stdio"],
"enabled": true
}
}
}
如果已经安装为命令行入口,也可以:
{
"$schema": "https://opencode.ai/config.json",
"mcp": {
"allcanuse": {
"type": "local",
"command": ["allcanuse-mcp"],
"enabled": true
}
}
}
在 LM Studio 的 mcp.json 中可写:
{
"mcpServers": {
"allcanuse": {
"command": "python",
"args": ["run_server.py", "--transport", "stdio"],
"cwd": "D:/path/to/allcanuse"
}
}
}
如果已经安装为命令行入口,也可以:
{
"mcpServers": {
"allcanuse": {
"command": "allcanuse-mcp",
"args": []
}
}
}
下面这些格式参考了相关权威客户端接入文档中的常见配置结构,再按当前项目的本地 stdio 启动方式改写成 allcanuse-mcp 可直接使用的示例。
GitHub Copilot CLI 的 MCP 配置文件通常是:
~/.copilot/mcp-config.json
如果已经执行过 pip install -e .,推荐直接写成:
{
"mcpServers": {
"allcanuse": {
"command": "allcanuse-mcp"
}
}
}
如果更希望从仓库目录直接运行,也可以写:
{
"mcpServers": {
"allcanuse": {
"command": "python",
"args": ["run_server.py", "--transport", "stdio"],
"cwd": "D:/path/to/allcanuse"
}
}
}
GitHub Copilot IDE 文档中的常见结构是项目级或用户级 .mcp.json,并使用 servers 字段。
如果已经安装成命令行入口,推荐这样写:
{
"servers": {
"allcanuse": {
"type": "stdio",
"command": "allcanuse-mcp"
}
}
}
如果你的具体 IDE 版本支持本地命令加参数,也可以改成:
{
"servers": {
"allcanuse": {
"type": "stdio",
"command": "python",
"args": ["run_server.py", "--transport", "stdio"]
}
}
}
Cursor 文档里常见全局 MCP 配置文件是:
~/.cursor/mcp.json
推荐示例:
{
"mcpServers": {
"allcanuse": {
"command": "python",
"args": ["run_server.py", "--transport", "stdio"],
"cwd": "D:/path/to/allcanuse"
}
}
}
如果已经安装为命令行入口,也可以:
{
"mcpServers": {
"allcanuse": {
"command": "allcanuse-mcp"
}
}
}
Windsurf 文档里常见 MCP 配置文件是:
~/.codeium/windsurf/mcp_config.json
推荐示例:
{
"mcpServers": {
"allcanuse": {
"command": "python",
"args": ["run_server.py", "--transport", "stdio"],
"cwd": "D:/path/to/allcanuse"
}
}
}
如果已经安装为命令行入口,也可以:
{
"mcpServers": {
"allcanuse": {
"command": "allcanuse-mcp"
}
}
}
Rovo Dev CLI 文档中的常见做法是先运行:
acli rovodev mcp
打开对应 MCP 配置后,可按同样的 mcpServers 结构写入本项目。推荐示例:
{
"mcpServers": {
"allcanuse": {
"command": "python",
"args": ["run_server.py", "--transport", "stdio"],
"cwd": "D:/path/to/allcanuse"
}
}
}
如果已经安装为命令行入口,也可以:
{
"mcpServers": {
"allcanuse": {
"command": "allcanuse-mcp"
}
}
}
配置保存后,重启对应客户端即可。
接入成功后,建议先让模型调用:
list_all_tools()
然后再让模型调用:
get_system_info()
get_desktop_context()
如果这些调用都正常返回,通常就说明 MCP 已接通并可直接使用。
resource://guides/workflows/duty-watch如果要把当前 MCP 接到不同客户端,建议优先看:
opencv-pythonPillowpsutil 与 pywin32wmctrlxpropgnome-screenshot、scrot 或 imagemagick补充说明:
psutil,核心系统信息、进程查询、端口查询、监听端口、已建立连接等能力也能通过底层 /proc 与 /sys 回退实现继续工作关于图像如何传给模型:
capture_screenshot 和 capture_camera_photo 现在不只会返回本地文件路径return_image_content=true,在支持视觉内容的 MCP 客户端里,工具结果会直接附带图像内容,模型可以直接看图python -m compileall src tests run_server.py
$env:PYTHONPATH=(Resolve-Path .\src).Path
python -m unittest discover -s tests -v
Add this to claude_desktop_config.json and restart Claude Desktop.
{
"mcpServers": {
"allcanuse-mcp": {
"command": "npx",
"args": []
}
}
}