阿里本地通
101.9MB · 2026-02-28
项目介绍:github.com/mco-org/mco…
你电脑上装了几个 AI 编程 Agent?
Claude Code、Codex、Gemini CLI、OpenCode、Qwen —— 这些工具我都装了,但每次只用其中一个。用 Claude 写完一段代码,想让 Gemini或者Codex 再看看?得手动切过去,重新粘贴 prompt,等它跑完,再自己对比,审查的结果再粘贴回去,就非常麻烦。
为什么不让它们同时干活呢?
于是我做了 MCO(Multi-CLI Orchestrator)。一条命令,主Agent同时调度多个 AI 编程 Agent,并行执行,各自交付,结果汇总到一份输出里。
我给 4 个 Agent 布置了同一个任务:「数一下这个仓库里有多少个 .py 文件」。
Claude、Codex、OpenCode 都数出了 19 个。Gemini 这次翻车了,只数出 17 个 —— 漏掉了 adapters/ 子目录里的 parsing.py 和 shim.py 两个文件。
这只是一个数文件的简单任务,就已经出现了结果分歧。换成架构分析、代码总结、方案评估这类开放性任务,差异只会更大。
再来一个分析类任务:我把 5 个 Agent 全部拉进来,让它们同时分析 MCO 自己代码里的 retry.py,找出边界问题和潜在 Bug:
这次 5 家高度收敛,但各有侧重:
retry_index <= 0 无校验、延迟无上限可能指数爆炸backoff_multiplier 为负数时,会产生「正负交替延迟」这个奇特行为frozen=True 的设计是对的,有来有往一个 Agent 的输出,你只能选择信或不信。多个 Agent 的输出,你可以交叉验证。
MCO 是一个中立的 AI 编程 Agent 编排层。它不绑定任何厂商,不替代任何 Agent,只做一件事:
把你的任务并行分发给多个 Agent,收集结果,汇总输出。
你可以把它理解成一个 Tech Lead:
You (Tech Lead)
│
▼
mco run / mco review
│
├─→ Claude Code ──┐
├─→ Codex CLI │
├─→ Gemini CLI ├─→ 汇总 → 输出
├─→ OpenCode │
└─→ Qwen Code ───┘
npm i -g @tt-a1i/mco
或者从源码:
git clone
cd mco && python3 -m pip install -e .
先用 mco doctor 检查一下你的环境:
mco doctor
它会告诉你哪些 Agent 已安装、版本多少、认证是否正常。都 OK 之后,跑你的第一次多 Agent 任务:
mco run
--repo .
--prompt "分析这个项目的整体架构,列出模块职责和依赖关系"
--providers claude,codex,gemini
就这么简单。一条命令,3 个 Agent 同时分析,各自输出自己的理解。你拿到 3 份独立的架构报告,对比着看。
mco run 是 MCO 的核心模式。你给一个 prompt,选几个 Agent,它们同时跑,各自独立完成,你来对比验证。
关键点:额外开销几乎为零。 总耗时约等于最慢的那个 Agent,不是所有 Agent 的执行时间加起来。跑 1 个 Agent 要 30 秒,跑 5 个也大概 30 秒。
任何你想要多个独立视角的任务:
架构分析 —— 3 个 Agent 各自分析同一个项目架构,你对比谁的理解更准确、谁漏了模块、谁的建议更实用:
mco run
--repo .
--prompt "分析这个项目的整体架构,列出核心模块、职责和依赖关系"
--providers claude,gemini,qwen
方案评估 —— 让多个 Agent 独立评估同一个技术决策,收集不同立场的分析:
mco run
--repo .
--prompt "评估把这个项目从 Flask 迁移到 FastAPI 的可行性和风险"
--providers claude,codex,gemini
代码总结 —— 多个 Agent 各自总结同一个模块,对比理解深度:
mco run
--repo .
--prompt "总结 runtime/ 目录下的核心逻辑和数据流"
--providers claude,codex,opencode
文档生成 —— 多份草稿择优合并:
mco run
--repo .
--prompt "为这个项目的 API 模块生成开发者文档"
--providers claude,gemini,qwen
这就像给 3 个工程师布置同一个调研任务:你不需要他们协作,你需要的是多个独立视角,然后自己做判断。
这不是理论问题。从上面两次真实测试里就能看出来:
| 测试任务 | 翻车的 Agent | 翻车原因 | 独家发现 |
|---|---|---|---|
统计 .py 文件数 | Gemini(17 vs 19) | 漏扫子目录 | — |
| 分析 retry.py 边界问题 | 无明显失误 | — | Qwen 发现负数乘数 Bug |
不同 Agent 确实擅长不同的事:
如果你只用了其中某一个,Qwen 那条独家发现就永远不会出现在你面前;Gemini 漏掉的那两个文件你也永远不会知道。
3-5 个 Agent 并行跑同一个任务,你拿到的是视角的并集,不是某个 Agent 的单一判断。
并行执行的思路自然延伸到代码审查。mco review 是 MCO 的审查模式,在并行执行的基础上增加了:
detected_by 来源追踪--synthesize 让一个 Agent 汇总所有结果:共识、分歧、下一步建议--format sarif 对接 GitHub Code Scanning,--format markdown-pr 生成 PR 评论mco review
--repo .
--prompt "审查这个仓库的安全漏洞和高风险 Bug"
--providers claude,codex,qwen
--format markdown-pr
审查场景下,多 Agent 的价值更明显 —— 一个 Agent 发现竞态条件但漏掉 SQL 注入,另一个正好相反,第三个找到了前两个都没注意到的内存泄漏。MCO 把所有发现汇总去重,你拿到的是全覆盖的审查报告。
| 场景 | 命令 | 效果 |
|---|---|---|
| 架构分析 | mco run --providers claude,gemini,qwen | 3 份独立分析报告,对比择优 |
| 方案评估 | mco run --prompt "评估迁移到 FastAPI 的影响" | 多视角风险评估 |
| 代码总结 | mco run --prompt "总结核心模块逻辑" | 多份总结交叉验证 |
| 文档生成 | mco run --prompt "生成 API 文档" | 多份草稿择优合并 |
| PR 代码审查 | mco review --format markdown-pr | 多 Agent 并行审查,生成 PR 评论 |
| CI 安全扫描 | mco review --format sarif | 结果上传 GitHub Code Scanning |
| 共识决策 | mco review --synthesize | 汇总共识、标注分歧 |
| 环境健康检查 | mco doctor --json | 一键确认所有 Agent 就绪 |
如果你在用 OpenClaw,它可以直接调用 MCO 作为多 Agent 编排后端:
OpenClaw 读 mco -h,自己学会 CLI 参数,自动编排整个流程。
同样适用于 Claude Code、Cursor、Trae、Copilot、Windsurf —— 任何能跑 shell 命令的 Agent 都能调度 MCO。这意味着你可以让 Agent 调度 Agent:Claude Code 通过 MCO 分发任务给 Codex 和 Gemini,拿到结果后自己做总结。
mco run 通用并行执行,mco review 结构化代码审查--synthesize 输出共识/分歧/建议mco doctor 一键诊断--include-token-usage 可选查看各 Agent 消耗MCO 不试图替代任何 Agent,它只是让你能同时用上所有 Agent。就像开会的时候,你不会只听一个人的意见 —— 你让所有人都发言,然后做综合判断。
mco run 分配工作,mco review 审查工作 —— 你是 Tech Lead,Agent 是你的团队。
项目开源,MIT 协议:github.com/mco-org/mco
npm i -g @tt-a1i/mco && mco doctor
如果觉得有用,欢迎 Star 和反馈 issue。也欢迎贡献新的 Agent 适配器 —— 只要你的 Agent 有 CLI,就能接入 MCO。
deepseek官网入口-网页版登录地址
漫蛙manwa2下载官方最新版本_下载前先看这几个常见问题 - 漫蛙manwa2安装包安全入口_下载前先看这几个重要提示
2026-02-28
2026-02-28