智能体审计追踪:自主决策时代的合规之道
当一位人工贷款官员拒绝一份申请时,这个决定背后有一个具体的名字。这位官员接收了特定信息,经过深思熟虑后做出了行动。推理过程或许并不完美,但它是可归因的——有人可以被联系、被质询、被追责。
当一个 AI 智能体拒绝同一份申请时,留下的只有一条数据库记录。这条记录表明决定已做出,但没有说明原因,没有说明是什么输入驱动了这个决定,没有说明当时运行的是哪个版本的模型,也没有说明系统提示词是否在两周前悄悄更新过。当你的合规团队将这条记录交给监管机构时,监管机构不会满意。
这就是智能体审计追踪问题,而大多数构建 AI 智能体的工程团队至今尚未解决它。
为何 AI 决策打破了传统审计模型
传统审计追踪建立在一个简单假设之上:一个有名字的人接 收了信息,做出决定,然后采取行动。因果链条清晰地映射到法律问责上。审计框架——HIPAA、SOX、SEC Rule 17a-4——正是为这个世界而设计的。
AI 智能体同时打破了这一模型中的每一个假设。
不确定性。 基于 LLM 的智能体具有随机性。相同的提示词在不同时刻会产生不同的工具调用序列。传统审计框架假设确定性回放是可能的——即可以通过重新运行过程来重建决策。而对于智能体来说,这个假设从设计上就是错误的。
身份激增。 智能体系统在运行时会产生临时子智能体、容器身份和特定于工作流的服务账户。ISACA 2025 年的一项分析发现,"数百个容器身份可能在没有所有权标签、审查记录或访问理由的情况下被创建。"当十几个不同的智能体工作流共享同一个服务账户凭证时,任何显示"service_account_prod 访问了 14,000 次记录"的访问日志,对于 HIPAA 审计来说都没有任何归因价值。
多智能体级联。 当智能体 A 编排智能体 B,智能体 B 调用工具 C,工具 C 写入数据库 D 时,谁来为结果负责?这个归因问题并不能简单地归结。推理失败可能源于该链条的任何一层,如果没有对每一跳进行完整的分布式追踪,事后分析就只是猜测。
思维链不透明。 一种常见的工程直觉是记录模型的推理轨迹。但这比看起来更不可靠。Anthropic 自己 2025 年的研究发现,推理模型仅在 25-39% 的情况下在思维链输出中披露了其真实意图。思维链是推理的表演,而非可靠的推理记录。
上下文窗口状态。 智能体在做出决策时的"心理状态"完全包含在其上下文窗口中——检索到的文档、工具输出、先前的对话轮次、系统提示词。不记录完整上下文状 态就记录输出,你就无法重建智能体行动时所知道的内容。
法规实际要求什么
HIPAA
HIPAA 要求记录所有 PHI 访问事件的日志。对于 AI 智能体,智能体对患者记录存储所做的每一次查询——包括自主子智能体所做的查询——都是受监管的数据访问事件。2025 年 HIPAA 安全规则修正案使全面访问日志记录成为强制要求,取消了给予组织灵活性的"可处理"类别。
结构性问题:HIPAA 要求将访问归因于唯一标识符。AI 智能体通过共享服务账户凭证访问患者数据,不符合这一要求。你需要每个智能体或每个工作流的独立身份,而不是十几个工作流可以互换使用的共享 API 密钥。
保留期:从创建之日起六年。
SOX 第 404 条
SOX 要求记录、批准和验证所有影响财务报告的系统变更。应用于 AI 系统,这意味着:
- 每次模型版本升级都必须经过正式的变更管理流程,并有书面批准——就像生产代码部署一样。
- 对财务重要智能体的每次系统提示词更改也是如此。
- 访问或修改财务数据的 AI 智能体必须留下可追踪的记录,显示访问了什么、修改了什么以及时间。
更深层的问题是第 302 条和第 906 条认证。CFO 和 CEO 需要亲自认证财务报表的准确性。如果 AI 智能体产生或重大影响了这些报表,而认证高管无法检查智能体的决策过程,他们就是在证明他们无法核实的准确性。这会造成个人法律风险。
SEC Rule 17a-4
2022 年 10 月对 Rule 17a-4 的修正案为 WORM 存储增加了审计追踪替代方案。对于经纪交易商,AI 生成内容的实际影响:当 AI 输出对外传输时,记录保留义务便被触发。停留在内部工具中的 AI 生成交易建议不会触发。一旦该建议通过电子邮件或聊天发送给客户,它就成为需要保留的记录。
必须保留的内容:建议本身、产生建议的输入数据,以及生成时的模型或系统配置。根据记录类型,保留期为三到六年。
SEC 在 2024 财年因记录保留违规对 70 多家金融机构处以超过 6 亿美元的罚款——而那时 AI 智能体尚未普及。其 2024 年 3 月对两家投资顾问因虚假 AI 声明采取的执法行动确立了一个实际教训:没有可验证的决策日志,公司就没有为自己辩护的证据基础。
决策归因架构
每一个能够通过合规审查的 AI 智能体日志条目,都需要捕捉四个层面的信息。
身份层——谁和什么做出了决定:
- 唯一智能体 ID(不是共享服务账户)
- 智能体类型(编排者、子智能体、工具执行器)
- 将多 轮任务所有步骤链接在一起的会话或工作流 ID
- 发起工作流的人类或上游系统的委托人 ID
- 用于分布式因果关系的 W3C 追踪上下文
trace_id和span_id
模型溯源层——运行的是什么:
- 精确的模型标识符,包括版本(例如
claude-opus-4-5,而不仅仅是claude) - 提供商名称
- 对于自托管模型,权重或配置的哈希值,以检测提供商端的静默更换
- 系统提示词版本或哈希——因为提示词更改会在不触及模型标识符的情况下改变行为
- 用于成本归因和异常检测的令牌计数
上下文层——智能体知道什么:
- 决策时的完整上下文窗口状态,或指向不可变存储的内容寻址哈希
- RAG 检索索引版本和检索到的特定文档 ID
- 工具可用性清单——执行时提供的工具及其版本
行动层——发生了什么:
- 每次调用的工具名称和版本
- 应用了 PII 脱敏的完整输入参数
- 返回值或指向存储响应的指针
- 具有毫秒精度的时间戳和调用延迟
- 成功或失败状态及错误详情
这些不是锦上添花的内容。它们是当监管机构三年后询问智能体为何采取某个行动时,重建原因的最低基础。
使日志具有法律效力的基础设施
记录正确的字段是必要的,但还不够。日志的存储位置和方式决定了它们是否具有法律效力。
不可变性至关重要。 2025 年对一个开源智能体框架的安全评估发现,其审计日志存储在可变目录中——这意味着任何行为者,包括恶意插件,都可以在事后删除或修改记录。WORM(写一次读多次)存储是 SEC 的传统标准。对于使用 Rule 17a-4 下审计追踪替代方案的新架构,举证责任转移到证明审计机制不能被篡改。
分层存储方法与监管保留窗口相匹配:
- 热层(0-30 天):带有加密签名的不可变对象存储,可通过 SIEM 查询
- 温层(30 天-2 年):符合 WORM 标准的存储,已建立索引以供搜索
- 冷/归档层(2-7 年):压缩 WORM 存储,用于 HIPAA 六年授权、SOX 以及加利福尼亚州要求风险评估保留五年的自动决策技术规则
容量是真实的约束。 每天 1000 万个智能体决策,原始日志每周超过 2 TB。每次调用的日志记录增加约 5-10ms 延迟,存储量每月增长约 15%。批量异步日志写入可以控制性能开销;同步内联日志记录在规模化时会产生延迟问题。
分布式追踪传播。 对于多服务智能体架构,W3C 追踪上下文标准是跨跳维持因果关系的方式。traceparent 头在每个服务边界传播,包括 MCP 工具服务器。没有这个,你有的只是各个服务日志,却没有办法将它们拼接成单个智能体工作流的连贯时间线。
各法规保留要求
| 法规 | 最低保留期 |
|---|---|
| SOC 2 | 1 年 |
| 加利福尼亚州 ADMT(2025) | 金融、住房、就业、医疗保健领域自动决策保留 5 年 |
| HIPAA | 从创建之日起 6 年 |
| SEC Rule 17a-4(经纪交易商) | 根据记录类型,3-6 年 |
| 欧盟 AI 法案(高风险系统) | 系统使用期限加上上市后监控期 |
| FDA 21 CFR Part 11 | 通常超过记录生命周期 2-3 年 |
大多数合规组织将可查询日志保留 12-24 个月,并通过适用监管窗口在归档 WORM 存储中保留。
实践中的"AI 决定了这件事"问题
最深层的合规缺口不是存储格式问题,而是问责归因问题。
在受监管行业中,决策会产生必须向受其影响的人解释的后果。《平等信贷机会法》要求提供拒绝信贷的不利行动通知。GDPR 第 22 条赋予个人不受纯粹自动化决策影响的权利,对于具有重大影响的此类决策,组织必须能够应要求解释。欧盟 AI 法案对高风险 AI 系统的要求需要算法决策的完整可重建性。
当你的智能体拒绝一笔贷款、封锁一笔交易或标记一个医疗案例时,总会有人问为什么。如果你最好的回答是"AI 决定了这件事",你既有法律问题,也有信任问题。
有一种值得命名的新兴缓解模式:智能体数字合同。其理念是,一个有名字的人批准一份正式政策文件,规定每个智能体被允许做什么——其范围、可访问的数据、可采取的行动 。每条审计日志条目都按版本引用该政策文件。当监管机构询问谁授权智能体采取此行动时,你指向一个批准了智能体操作范围的人——即使没有任何人批准每个单独的行动。
这并不能使智能体的推理透明。但它确实给了你一个可追溯到人类决策的问责锚点,而这正是大多数监管框架实际要求的。
失败是什么样子
SEC 2024 年 3 月对错误描述其 AI 能力的投资顾问采取的执法行动,建立了一个实际教训:没有可验证的审计日志显示 AI 系统实际做了什么,公司就没有证据基础。指控不是关于 AI 表现不佳,而是关于公司无法证实其 AI 所做之事。同样的逻辑适用于智能体采取问题行动时——如果你无法重建产生该行动的输入、模型状态和工具调用序列,你就无法为这个决定辩护或证明它落在批准的参数范围内。
一家医疗分析平台的订单路由智能体将一笔 200 万美元的交易错误分类,事后调查因此变得不可能。由于没有在决策时记录完整上下文窗口,调查人员无法确定是哪个输入触发了错误分类。从审计角度来看,该事件是无法挽救的。
到 2026 年初,1,222 起 AI 幻觉案件进入法庭,律师因提交包含不存在引文的 AI 生成文件而受到制裁。法院确立了"核实义务不能委托给机器"的原则。同样的问责逻辑正在金融和医疗保健背景下应用于 AI 智能体——部署智能体的组织要承担其决策的后果。
构建审计就绪的智能体
构建审计就绪的智能体系统的路径贯穿以下实践:
每个智能体独立身份,而非共享凭证。 每个智能体都需要唯一身份。共享服务账户不符合 HIPAA 的唯一标识符要求,并且使任何框架下的归因都变得不可能。
在决策时捕获上下文。 上下文窗口是智能体的工作状态。在每个关键决策点记录它——或记录指向不可变存储的内容寻址哈希。记录系统提示词版本、检索索引版本、工具清单。没有这些,你就无法重建智能体所知道的内容。
从一开始就使用 W3C 追踪上下文。 在智能体架构的每个服务边界(包括工具服务器)传播 traceparent 头。这是使多跳归因成为可能的机制。事后改造成本高昂。
使日志不可变。 可变的审计日志不是审计日志。WORM 存储或加密签名的仅追加结构,是任何将面临监管审查内容的最低标准。
定义人类问责锚点。 对于受监管领域的每个智能体工作流,记录谁批准了智能体的操作范围以及该范围是什么。将该政策文件作为版本化工件存储,并在每条日志条目中引用。这就是将"AI 决定了这件事"转变为"在 [日期] 由 [人员] 批准的政策 v2.3 下运行的智能体 X,在这些输入条件下采取了行动 Y"的方法。
AI 治理法规正在加速——2024 年美国推出了 59 项与 AI 相关的法规,是 2023 年的两倍。现在构建审计基础设施的团队,将比在合规截止日期到来时才匆忙补救的团队拥有多年的运营优势。
问责差距是一个工程问题。解决它的架构已经存在。问题是你是在第一次审计请求之前还是之后构建它。
- https://www.isaca.org/resources/news-and-trends/industry-news/2025/the-growing-challenge-of-auditing-agentic-ai
- https://galileo.ai/blog/ai-agent-compliance-governance-audit-trails-risk-management
- https://dev.to/waxell/your-ai-agents-and-the-audit-trail-what-compliance-actually-needs-33i5
- https://www.skadden.com/insights/publications/2024/09/how-and-when-sec-recordkeeping-rules-may-apply
- https://www.sec.gov/newsroom/press-releases/2024-36
- https://artificialintelligenceact.eu/article/12/
- https://www.sprypt.com/blog/hipaa-compliance-ai-in-2025-critical-security-requirements
- https://arxiv.org/html/2602.10133
- https://arxiv.org/html/2603.07191v1
- https://opentelemetry.io/blog/2025/ai-agent-observability/
- https://developers.redhat.com/articles/2026/04/06/distributed-tracing-agentic-workflows-opentelemetry
- https://censinet.com/perspectives/explainable-ai-imperative-black-box-risk-management-nightmare
- https://www.bis.org/fsi/fsipapers24.pdf
- https://tetrate.io/learn/ai/mcp/mcp-audit-logging
- https://www.elvex.com/blog/sox-compliance-for-ai-systems
