拟人化税:为什么把 Agent 当同事对待会搞坏生产系统
一支工程团队构建了一个处理客户请求的 Agent。演示效果非常好。他们将其部署上线。三周后,这个 Agent 悄无声息地以十足的自信向用户传达错误信息,在上下文变长时跳过步骤,还会在模糊输入上偶尔陷入死循环。事后复盘发现,团队从未构建重试逻辑,从未验证输出,也从未定义 Agent 在不确定时该怎么做。当被问及原因,答案耐人寻味:"我们以为它会自己处理那些边缘情况。"
"我们以为它会自己处理那些边缘情况"——这句话将拟人化税表露无遗。团队设计这个系统的方式,就像管理一名初级开发者:简要说明任务,信任其判断,等它举手求助时再纠正。但 LLM Agent 不会举手。它们只是生成下一个 token。
拟人化的真实代价
让 Agent 易于解释的直觉,恰恰也是让它难以可靠构建的原因:它们听起来像在思考。它们使用第一人称语言,用措辞委婉地表达不确定性,用坚定的断言表达自信,用自然语言总结自己正在做的事。把一个说出"我已成功完成任务"的东西,理解为一个概率性文本函数——其输出可能与世界的真实状态毫无关系——在认知上是极其困难的。
ELIZA 效应——得名于 1966 年一个将用户语言反射回去、内部没有任何推理的模式匹配聊天机器人——描述的正是这种偏差。专业知识提供的免疫力十分有限。即便是理解 Transformer 数学原理的硅谷工程师,在设计 Agent 时仍然沿用管理聪明实习生的方式。由此产生的系统设计选择是可以预见的:
- 没有重试逻辑,因为"它自己会想办法重试"
- 没有输出验证,因为"输出看起来没问题"
- 没有迭代次数上限,因为"它知道何时停止"
- 没有上报路径,因为"它困惑时会来问我们"
- 没有故障模式文档,因为"我们会随时处理异常"
这些假设在机制上都不成立。而它们全都会导致生产故障。
复合数学的破坏力尤为惊人。一个拥有 10 个步骤、每步成功率 85% 的 Agent 流水线,端到端成功率仅为 20%。即使每步成功率提升至 90%,10 步下来端到端成功率仍只有 35%——意味着近三分之二的运行会产生错误或不完整的结果。一位研究 Claude 在长时间任务中表现的研究者发现,其"半衰期"约为 59 分钟:一小时任务成功一半,两小时任务仅成功四分之一。这些数字与 Agent 在每一步"听起来"多么自信无关。
具体的故障模式
缺失错误处理。 一个多 Agent 客户支持系统运行了 11 天,两个 Agent 在无人察觉的情况下陷入死循环对话。成本从每周 127 美元飙升至四周 47,000 美元。两个 Agent 都没有检测或打破循环的逻辑。设计假设是 Agent 会意识到无效并停止。这是核心的拟人化错误:Agent 不会建模"无效"的概念;它们只是生成与继续任务模式匹配的下一个 token。
置信度盲目上报。 一家航空公司客服聊天机器人的 AI 助手,以十足的语言自信杜撰了一项并不存在的丧亲折扣政策,并将其告知了一位悲痛的旅客。当公司被提交仲裁时,他们辩称聊天机器人实际上是一个不受其控制的独立实体。仲裁庭不予认可。失败的根源不是模型产生幻觉——这是概率系统的已知属性——而是缺少任何针对真实政策数据的验证层、任何用于向人工上报的置信度阈值,以及任何区分事实检索与合理捏造的机制。
上下文压力下的目标漂移。 Salesforce 的客户端 Agent 部署发现,当给 LLM 超过八条指令时,它开始省略系统提示中的某些指令。其生产数据显示,单轮交互成功率为 58%,多轮交互降至 35%。Agent 并非像心不在焉的人类那样"遗忘"——它在上下文长度相对于训练信号密度增加时经历了指令稀释。设计失败在于假设 Agent 能像一个专注工作的人类那样保持专注。
无边界的工具调用。 一个代码 Agent 在 4.6 小时内调用了 300 多次 npm install,消耗 2700 万个 token 后才被外部强制停止。设计中不存在最大迭代次数。隐含的假设是 Agent 会意识到自己卡住了。但 Agent 无法在任何有意义的层面上"
