跳到主要内容

智能体审计追踪:自主决策时代的合规之道

· 阅读需 13 分钟
Tian Pan
Software Engineer

当一位人工贷款官员拒绝一份申请时,这个决定背后有一个具体的名字。这位官员接收了特定信息,经过深思熟虑后做出了行动。推理过程或许并不完美,但它是可归因的——有人可以被联系、被质询、被追责。

当一个 AI 智能体拒绝同一份申请时,留下的只有一条数据库记录。这条记录表明决定已做出,但没有说明原因,没有说明是什么输入驱动了这个决定,没有说明当时运行的是哪个版本的模型,也没有说明系统提示词是否在两周前悄悄更新过。当你的合规团队将这条记录交给监管机构时,监管机构不会满意。

这就是智能体审计追踪问题,而大多数构建 AI 智能体的工程团队至今尚未解决它。

为何 AI 决策打破了传统审计模型

传统审计追踪建立在一个简单假设之上:一个有名字的人接收了信息,做出决定,然后采取行动。因果链条清晰地映射到法律问责上。审计框架——HIPAA、SOX、SEC Rule 17a-4——正是为这个世界而设计的。

AI 智能体同时打破了这一模型中的每一个假设。

不确定性。 基于 LLM 的智能体具有随机性。相同的提示词在不同时刻会产生不同的工具调用序列。传统审计框架假设确定性回放是可能的——即可以通过重新运行过程来重建决策。而对于智能体来说,这个假设从设计上就是错误的。

身份激增。 智能体系统在运行时会产生临时子智能体、容器身份和特定于工作流的服务账户。ISACA 2025 年的一项分析发现,"数百个容器身份可能在没有所有权标签、审查记录或访问理由的情况下被创建。"当十几个不同的智能体工作流共享同一个服务账户凭证时,任何显示"service_account_prod 访问了 14,000 次记录"的访问日志,对于 HIPAA 审计来说都没有任何归因价值。

多智能体级联。 当智能体 A 编排智能体 B,智能体 B 调用工具 C,工具 C 写入数据库 D 时,谁来为结果负责?这个归因问题并不能简单地归结。推理失败可能源于该链条的任何一层,如果没有对每一跳进行完整的分布式追踪,事后分析就只是猜测。

思维链不透明。 一种常见的工程直觉是记录模型的推理轨迹。但这比看起来更不可靠。Anthropic 自己 2025 年的研究发现,推理模型仅在 25-39% 的情况下在思维链输出中披露了其真实意图。思维链是推理的表演,而非可靠的推理记录。

上下文窗口状态。 智能体在做出决策时的"心理状态"完全包含在其上下文窗口中——检索到的文档、工具输出、先前的对话轮次、系统提示词。不记录完整上下文状态就记录输出,你就无法重建智能体行动时所知道的内容。

法规实际要求什么

HIPAA

HIPAA 要求记录所有 PHI 访问事件的日志。对于 AI 智能体,智能体对患者记录存储所做的每一次查询——包括自主子智能体所做的查询——都是受监管的数据访问事件。2025 年 HIPAA 安全规则修正案使全面访问日志记录成为强制要求,取消了给予组织灵活性的"可处理"类别。

结构性问题:HIPAA 要求将访问归因于唯一标识符。AI 智能体通过共享服务账户凭证访问患者数据,不符合这一要求。你需要每个智能体或每个工作流的独立身份,而不是十几个工作流可以互换使用的共享 API 密钥。

保留期:从创建之日起六年。

SOX 第 404 条

SOX 要求记录、批准和验证所有影响财务报告的系统变更。应用于 AI 系统,这意味着:

  • 每次模型版本升级都必须经过正式的变更管理流程,并有书面批准——就像生产代码部署一样。
  • 对财务重要智能体的每次系统提示词更改也是如此。
  • 访问或修改财务数据的 AI 智能体必须留下可追踪的记录,显示访问了什么、修改了什么以及时间。

更深层的问题是第 302 条和第 906 条认证。CFO 和 CEO 需要亲自认证财务报表的准确性。如果 AI 智能体产生或重大影响了这些报表,而认证高管无法检查智能体的决策过程,他们就是在证明他们无法核实的准确性。这会造成个人法律风险。

SEC Rule 17a-4

2022 年 10 月对 Rule 17a-4 的修正案为 WORM 存储增加了审计追踪替代方案。对于经纪交易商,AI 生成内容的实际影响:当 AI 输出对外传输时,记录保留义务便被触发。停留在内部工具中的 AI 生成交易建议不会触发。一旦该建议通过电子邮件或聊天发送给客户,它就成为需要保留的记录。

必须保留的内容:建议本身、产生建议的输入数据,以及生成时的模型或系统配置。根据记录类型,保留期为三到六年。

SEC 在 2024 财年因记录保留违规对 70 多家金融机构处以超过 6 亿美元的罚款——而那时 AI 智能体尚未普及。其 2024 年 3 月对两家投资顾问因虚假 AI 声明采取的执法行动确立了一个实际教训:没有可验证的决策日志,公司就没有为自己辩护的证据基础。

决策归因架构

每一个能够通过合规审查的 AI 智能体日志条目,都需要捕捉四个层面的信息。

身份层——谁和什么做出了决定:

  • 唯一智能体 ID(不是共享服务账户)
  • 智能体类型(编排者、子智能体、工具执行器)
  • 将多轮任务所有步骤链接在一起的会话或工作流 ID
  • 发起工作流的人类或上游系统的委托人 ID
  • 用于分布式因果关系的 W3C 追踪上下文 trace_idspan_id

模型溯源层——运行的是什么:

  • 精确的模型标识符,包括版本(例如 claude-opus-4-5,而不仅仅是 claude
  • 提供商名称
  • 对于自托管模型,权重或配置的哈希值,以检测提供商端的静默更换
  • 系统提示词版本或哈希——因为提示词更改会在不触及模型标识符的情况下改变行为
  • 用于成本归因和异常检测的令牌计数

上下文层——智能体知道什么:

  • 决策时的完整上下文窗口状态,或指向不可变存储的内容寻址哈希
  • RAG 检索索引版本和检索到的特定文档 ID
  • 工具可用性清单——执行时提供的工具及其版本

行动层——发生了什么:

  • 每次调用的工具名称和版本
  • 应用了 PII 脱敏的完整输入参数
  • 返回值或指向存储响应的指针
  • 具有毫秒精度的时间戳和调用延迟
  • 成功或失败状态及错误详情

这些不是锦上添花的内容。它们是当监管机构三年后询问智能体为何采取某个行动时,重建原因的最低基础。

使日志具有法律效力的基础设施

记录正确的字段是必要的,但还不够。日志的存储位置和方式决定了它们是否具有法律效力。

不可变性至关重要。 2025 年对一个开源智能体框架的安全评估发现,其审计日志存储在可变目录中——这意味着任何行为者,包括恶意插件,都可以在事后删除或修改记录。WORM(写一次读多次)存储是 SEC 的传统标准。对于使用 Rule 17a-4 下审计追踪替代方案的新架构,举证责任转移到证明审计机制不能被篡改。

分层存储方法与监管保留窗口相匹配:

  • 热层(0-30 天):带有加密签名的不可变对象存储,可通过 SIEM 查询
  • 温层(30 天-2 年):符合 WORM 标准的存储,已建立索引以供搜索
  • 冷/归档层(2-7 年):压缩 WORM 存储,用于 HIPAA 六年授权、SOX 以及加利福尼亚州要求风险评估保留五年的自动决策技术规则

容量是真实的约束。 每天 1000 万个智能体决策,原始日志每周超过 2 TB。每次调用的日志记录增加约 5-10ms 延迟,存储量每月增长约 15%。批量异步日志写入可以控制性能开销;同步内联日志记录在规模化时会产生延迟问题。

分布式追踪传播。 对于多服务智能体架构,W3C 追踪上下文标准是跨跳维持因果关系的方式。traceparent 头在每个服务边界传播,包括 MCP 工具服务器。没有这个,你有的只是各个服务日志,却没有办法将它们拼接成单个智能体工作流的连贯时间线。

各法规保留要求

法规最低保留期
SOC 21 年
加利福尼亚州 ADMT(2025)金融、住房、就业、医疗保健领域自动决策保留 5 年
HIPAA从创建之日起 6 年
SEC Rule 17a-4(经纪交易商)根据记录类型,3-6 年
欧盟 AI 法案(高风险系统)系统使用期限加上上市后监控期
FDA 21 CFR Part 11通常超过记录生命周期 2-3 年

大多数合规组织将可查询日志保留 12-24 个月,并通过适用监管窗口在归档 WORM 存储中保留。

实践中的"AI 决定了这件事"问题

最深层的合规缺口不是存储格式问题,而是问责归因问题。

在受监管行业中,决策会产生必须向受其影响的人解释的后果。《平等信贷机会法》要求提供拒绝信贷的不利行动通知。GDPR 第 22 条赋予个人不受纯粹自动化决策影响的权利,对于具有重大影响的此类决策,组织必须能够应要求解释。欧盟 AI 法案对高风险 AI 系统的要求需要算法决策的完整可重建性。

当你的智能体拒绝一笔贷款、封锁一笔交易或标记一个医疗案例时,总会有人问为什么。如果你最好的回答是"AI 决定了这件事",你既有法律问题,也有信任问题。

有一种值得命名的新兴缓解模式:智能体数字合同。其理念是,一个有名字的人批准一份正式政策文件,规定每个智能体被允许做什么——其范围、可访问的数据、可采取的行动。每条审计日志条目都按版本引用该政策文件。当监管机构询问谁授权智能体采取此行动时,你指向一个批准了智能体操作范围的人——即使没有任何人批准每个单独的行动。

这并不能使智能体的推理透明。但它确实给了你一个可追溯到人类决策的问责锚点,而这正是大多数监管框架实际要求的。

失败是什么样子

SEC 2024 年 3 月对错误描述其 AI 能力的投资顾问采取的执法行动,建立了一个实际教训:没有可验证的审计日志显示 AI 系统实际做了什么,公司就没有证据基础。指控不是关于 AI 表现不佳,而是关于公司无法证实其 AI 所做之事。同样的逻辑适用于智能体采取问题行动时——如果你无法重建产生该行动的输入、模型状态和工具调用序列,你就无法为这个决定辩护或证明它落在批准的参数范围内。

一家医疗分析平台的订单路由智能体将一笔 200 万美元的交易错误分类,事后调查因此变得不可能。由于没有在决策时记录完整上下文窗口,调查人员无法确定是哪个输入触发了错误分类。从审计角度来看,该事件是无法挽救的。

到 2026 年初,1,222 起 AI 幻觉案件进入法庭,律师因提交包含不存在引文的 AI 生成文件而受到制裁。法院确立了"核实义务不能委托给机器"的原则。同样的问责逻辑正在金融和医疗保健背景下应用于 AI 智能体——部署智能体的组织要承担其决策的后果。

构建审计就绪的智能体

构建审计就绪的智能体系统的路径贯穿以下实践:

每个智能体独立身份,而非共享凭证。 每个智能体都需要唯一身份。共享服务账户不符合 HIPAA 的唯一标识符要求,并且使任何框架下的归因都变得不可能。

在决策时捕获上下文。 上下文窗口是智能体的工作状态。在每个关键决策点记录它——或记录指向不可变存储的内容寻址哈希。记录系统提示词版本、检索索引版本、工具清单。没有这些,你就无法重建智能体所知道的内容。

从一开始就使用 W3C 追踪上下文。 在智能体架构的每个服务边界(包括工具服务器)传播 traceparent 头。这是使多跳归因成为可能的机制。事后改造成本高昂。

使日志不可变。 可变的审计日志不是审计日志。WORM 存储或加密签名的仅追加结构,是任何将面临监管审查内容的最低标准。

定义人类问责锚点。 对于受监管领域的每个智能体工作流,记录谁批准了智能体的操作范围以及该范围是什么。将该政策文件作为版本化工件存储,并在每条日志条目中引用。这就是将"AI 决定了这件事"转变为"在 [日期] 由 [人员] 批准的政策 v2.3 下运行的智能体 X,在这些输入条件下采取了行动 Y"的方法。

AI 治理法规正在加速——2024 年美国推出了 59 项与 AI 相关的法规,是 2023 年的两倍。现在构建审计基础设施的团队,将比在合规截止日期到来时才匆忙补救的团队拥有多年的运营优势。

问责差距是一个工程问题。解决它的架构已经存在。问题是你是在第一次审计请求之前还是之后构建它。

References:Let's stay in touch and Follow me for more thoughts and updates