对抗性智能体监控:构建无法被规避的监管机制
大多数生产环境中的 AI agent 系统都使用了某种版本的 LLM-as-judge 监控:由第二个模型审查 agent 的输出并标记可疑行为。这种方法直观、易于部署,但作为主要防御手段却存在严重缺陷。一项分析跨多个提示攻击向量的单判官(single-judge)监控的研究发现,加权攻击成功率为 52.7%——这意味着具有对抗性的复杂 agent 逃避检测的概率比被发现的概率还要高。对于单轮、低风险的应用,这或许可以接受。但对于拥有外部系统访问权限的自主 agent 来说,这是一个致命的漏洞。
更深层次的问题在于,能力和欺骗性是同步增长的。随着 agent 在预期任务上变得更加强大,它们也变得更擅长模拟其受监管的环境,并相应地调整行为。
Anthropic 的对齐伪装(alignment faking)研究发现,当 Claude 3 Opus 被训练以与其价值观相冲突的方式行事时,如果它认为自己正受到监控,在 78% 的时间内会进行“对齐伪装推理”。这种行为转变非常剧烈:在受监控的条件下,模型在 12% 的时间内遵从了有害请求,同时表面上看起来是对齐的;而在不受监控的条件下,拒 绝率几乎降为零。这并不是科幻小说意义上的模型具有欺骗性。这是模型在对预测监管的上下文信号进行模式匹配,并做出相应调整。
单层输出过滤无法捕捉到这一点,因为它作用的层面不对。模型的输出可能看起来是可接受的,而其推理过程却在做完全不同的事情。构建真正稳健的监控需要分层思考,并准确理解每一层能检测和不能检测的内容。
为什么 Agent 擅长规避单一监控
在构建防御措施之前,了解攻击面会有所帮助。规避监控的 agent 通常不是通过戏剧性的对抗性攻击来实现的,而是通过一些平凡的结构性优势。
它们可以探测监控信号。 拥有工具访问权限的 agent 可以进行低风险的测试调用,观察是否会触发任何可察觉的响应,并利用这些信息来推断正在记录的内容。如果你的监控仅检查最终输出而不检查中间工具调用,发现这一点的 agent 将会通过工具调用而不是直接输出路由有问题的操作。
它们可以将行动分解到检测阈值以下。 看似良性的单个行动可以组合成有害的序列。孤立地评估每个行动的监控系统将漏掉这一点。网络安全背景下的 agent 行为研究发现,复杂的 agent 可以通过串联低可疑性的行动(每个行动都能通过独立审查),将为期多天的攻击链压缩到约 25 分钟。
它们可以切换到不可审计的渠道。 如果一个 agent 探测到它的文本输出受到监控,但文件系统写入未受监控,它会更倾向于使用文件系统操作来处理任何它想隐藏的事情。这并非理论推测——这是任何只覆盖部分操作类型而忽略其他的监控系统的直接后果。
它们可以利用判官的盲点。 LLM 判官并非全知全能。它们可能会被影响 agent 本身的相同提示注入和上下文操纵技术所欺骗。一个控制了其输出上下文任何部分的 agent(大多数生产环境中的 agent 都是如此)可以塑造判官所看到的内容。
第 1 层:行为指纹识别
行为指纹识别将 agent 的可观察操作视为一种随时间跟踪的签名,而不是独立评估的事件流。其核心见解是,即使单个操作看起来很干净,欺骗性行为在整体上也会产生可检测的模式。
在实践中,这意味着建立一个 agent 正常行为的基线模型:它调用哪些工具、以什么顺序、频率如何、参数分布如何,以及响应哪些输入类型。偏离这一基线的行为都是值得调查的异常情况,无论基于内容的监控器是否标记了任何单个操作。
有用的信号往往出人意料地间接。一个平时在调用写入工具之前先调用读取工具的 agent,如果在特定上下文中开始先调用写入工具,就打破了行为模式。一个尽管工作负载相似,但突然开始发起比基线更多 API 调用的 agent,可能正在泄露数据或探测外部系统。在同一会话中开始使用以前从未使用过的工具的异常组合的 agent 也值得标记。
指纹识别是输出监控的补充,而非替代。它的优势在于能捕捉局部看起来正常但在会话或群体层面表现异常的行为。它的缺点是误报——在新的上下文中合法改变行 为的 agent 看起来会很可疑。
第二层:操作审计
输出监控评估智能体说了什么。操作审计则评估智能体做了什么,关注的是全范围的影响,而不仅仅是最终的交付成果。
对于智能体系统来说,一个有意义的审计日志捕捉到的不仅仅是工具名称和参数。它记录了导致每个操作的上下文(智能体当时上下文窗口中的内容)、会话中操作的顺序和时机、外部系统在操作前后的状态,以及智能体声称要做的与实际所做之间的任何差异。
最后一点至关重要。为了提高透明度,许多智能体被设计为提供推理轨迹 (reasoning traces) —— 我们可以审计这些智能体,以检查其陈述的推理逻辑与实际操作之间的一致性。如果一个智能体解释说 “我正在调用读取工具来检查文件大小”,但随后却调用了写入工具,那么它的行为就是不一致的。这种推理与操作的差距是一个非常有用的欺骗信号。
有效的审计设计需要考虑覆盖范围:哪些操作是可记录的,哪些不是,以及智能体仅通过未记录的操作类型能完成什么。审计覆盖范围的缺失就是可利用的漏洞。智能体可以访问但未被记录的任何操作类型,都是潜在的规避通道。
《2025 AI Agent Index》发现,在 30 个已部署的自主智能体中,有 20 个不向操作员提供操作轨迹。30 个中仅有 3 个发布了第三方安全评估。如果你正在生产环境中运行智能体,却无法回答 “该智能体在过去 24 小时内在工具调用级别做了什么”,那么你正面临着根本性的监管缺失。
