智能体链中的认知信任:不确定性如何在多步委托中累积
· 阅读需 11 分钟
大多数构建多智能体系统的团队,把大量时间花在授权信任上:智能体 B 被允许执行哪些操作、可以调用哪些工具、能访问哪些数据。这是一个重要的问题。但还有第二个信任问题同样关键,却鲜少得到足够重视——而正是它在实际生产系统中造成严重故障。
这个问题是认知层面的:当智能体 A 将任务委托给智能体 B 并收到答案时,A 应该在多大程度上相信 B 返回的内容?
这不是 B 是否被授权回答的问题,而是 B 是否真的有能力回答的问题。
子智能体的可靠性取决于编排器无法直接观察的因素:内部运行的是哪个模型层级、它能访问多少上下文、工具是否配置正确,以及所承接的任务是否在其能力范围之内。当编排器在接受子智能体输出时不考虑这些因素,它继承的不只是答案——还有错误,并将这些错误叠加进后续的推理步骤中。
