跳到主要内容

聊天机器人、Copilot 还是 Agent:改变你架构决策的分类学

· 阅读需 10 分钟
Tian Pan
Software Engineer

AI 工程中最昂贵的架构错误不是选错了模型,而是选错了交互范式。本该构建 Agent 的团队花了六个月打磨一个聊天机器人,然后困惑地发现用户什么事也办不成。本该构建 Copilot 的团队接入了完全自主的 Agent,结果用整个季度来扑灭未授权操作和失控成本引发的各种火。

这套分类学在你写下第一行代码之前就至关重要,因为聊天机器人、Copilot 和 Agent 有着根本不同的信任模型、上下文窗口策略和错误恢复需求。选错了不只是产品变差——而是产品无法通过调提示词或换模型来修复。

三种范式的精确定义

这三者不是能力滑块上的三个刻度,而是 AI 系统与依赖它的人之间具有不同契约的交互模型。

聊天机器人是无状态的单轮(或短会话)应答器,存在于文本界面中,无法在界面之外执行任何操作。它们不能调用 API、写入数据库、触发工作流或修改外部系统。失败的边界是有限的:最坏的结果是一个错误的回答。信任模型很简单——限流、PII 过滤和优雅地转交人工处理已经足够。

Copilot 是嵌入在人们已经在使用的应用程序中的工作流内助手。它们建议、起草、摘要、推荐——但在没有明确人工批准的情况下绝不执行。Copilot 的核心契约是:人类掌握最终行动权。GitHub Copilot 建议一段代码补全,你按 Tab 键确认。写作 Copilot 提出修改建议,你接受或拒绝。信任通过宿主应用自身的权限模型处理,Copilot 继承应用的访问控制,而非自己管理。

Agent 是自主执行系统。它们观察状态、推理、选择并调用工具、评估结果、然后迭代——全程不需要人类批准每一步。Agent 可以预订日历事件、提交支持工单、修改数据库记录或触发部署。信任不是继承来的,必须被显式设计。Agent 需要权限感知的工具访问、受限凭证、变更日志、回滚机制,以及当置信度低于阈值时的升级路径。

核心问题很简单:谁在掌舵? 聊天机器人掌舵对话。Copilot 帮助人掌舵工作。Agent 自己掌舵工作流。

为什么团队总是默认选聊天机器人

每个 AI 演示都从聊天机器人开始。输入点什么,得到点什么。界面熟悉,失败范围有限,周末就能搭出来。这种引力扭曲了产品决策。

失败的模式是这样的:一个团队决定要给一个复杂的内部工作流"加 AI"——比如处理支持升级,或通过多步数据收集流程引导新客户入职。他们构建了一个对话界面,因为那是 AI 在他们脑海中的样子。用户来了,输入请求,AI 帮助地回应——直到任务真正需要有事情发生。聊天机器人可以解释流程,但无法执行它。用户必须拿着 AI 的输出,切换到另一个系统,自己动手做。AI 不是减少了一个步骤,而是增加了一个步骤。

这种错位是结构性的。聊天机器人针对信息检索和解释做了优化。当用例根本上是关于跨系统做事时,聊天机器人产出的是一个信息更充足、但依然必须手动完成工作的人类。

团队在聊天机器人模式里待得比应该的更久,因为聊天机器人易于部署,易于评估(它回答正确了吗?),易于迭代。跳到 Agent 架构感觉很大。它需要工具定义、权限范围划定、失败处理、审计追踪。于是团队不断堆砌聊天机器人功能,直到产品差距变得无法忽视。

Copilot 被低估的价值

Copilot 占据着一个长期被低估的中间位置。因为缺乏自主执行能力,它有时被贬为"有更好 UX 的聊天机器人"。这种框架错过了它在架构上的价值所在。

Copilot 可以访问独立聊天机器人无法访问的真实系统上下文——当前文件、活跃记录、用户的近期活动——因为它就嵌在宿主应用里。这种嵌入式上下文极大地提升了产出的相关性,而不增加风险敞口。人工审批关卡意味着即使 AI 的建议是错的,在人类确认操作之前也不会造成损害。

这使得 Copilot 成为大量任务的正确选择:任何真正需要人类判断的地方、任何监管合规要求人在决策环路中的地方,或者任何错误自主操作的代价超过审查步骤代价的地方。医疗文档、法律起草、财务报告、代码审查——这些领域历来要求人工签署是有充分理由的。Copilot 模式在尊重这一约束的同时,仍能带来实质性的效率提升。

Copilot 的失败模式也比 Agent 温和得多。当 Copilot 生成了一个糟糕的建议,人类拒绝它。当 Agent 执行了一个糟糕的操作,你需要回滚基础设施。这种不对称不是反对 Agent 的理由——而是在 Copilot 架构合适时有意选择它的理由,而不是把它当作通往"真正" Agent 能力的垫脚石。

Agent 架构真正需要什么

加载中…
Let's stay in touch and Follow me for more thoughts and updates