跳到主要内容

责任转移问题:为什么AI会为它从未被设计独自做出的决策背锅

· 阅读需 12 分钟
Tian Pan
Software Engineer

一家大型医疗保险公司部署了一套AI工具来评估病后护理索赔。该系统的错误率超过90%——也就是说,每十个经人工审核人员最终推翻的拒赔案例中,有九个是被错误拒绝的。然而这些拒赔并未被主动纠正。患者不得不逐一提出申诉。当诉讼来临时,公司的回应是将矛头指向AI。

AI什么都没有拒绝。是人类在他们自己设计的工作流程中大规模地批准了这些拒赔,在他们选择部署的系统里。但"AI决定了"这句话把责任引向了一个方向,恰好让组织、批准上线的高管以及在每个案例上签字的审核人员得以脱身。

这就是责任转移问题——它不是未来的风险,而是已经在生产AI系统中普遍存在的现实。

同一名称下的两个不同问题

大多数关于AI决策风险的讨论混淆了两种截然不同的失败模式,这导致了错误的修复方向。

第一种是自动化偏差:过度依赖自动化建议而缺乏充分审查的认知倾向,有大量文献记录。2025年一项对35项同行评审研究的系统综述发现,自动化偏差在非专业人士中尤为普遍——而这恰恰是最能从AI决策支持中受益的群体。当用户对系统的信任程度超过其实际可靠性时,他们就会停止独立判断,开始橡皮图章式地批准建议。这是一种认知失败,培训、界面设计和置信度披露可以减轻它。

第二种是刻意的责任转移:有意识地援引AI建议作为决策者不愿承担责任的挡箭牌。这不是认知错误——而是一种机构选择。一位明知某筛选工具存在已知偏见问题却仍然使用它、随后将歧视性结果归咎于"系统"的招聘经理,并非在受自动化偏差的影响。他们是在转嫁责任。

这一区别至关重要,因为修复方案不同。你可以通过更好的用户体验来减少自动化偏差。但你无法通过设计来消除组织层面的不诚信。这需要在出问题之前就将结构性问责机制内嵌到系统中。

组织制造的问责真空

研究人员玛德琳·克莱尔·埃利什(Madeleine Clare Elish)创造了"道德溃缩区"这个术语,用以描述自动化系统故障的责任如何被系统性地误归到最接近故障的人类操作者身上——而那个人通常对系统设计的控制权最小。就像汽车的溃缩区吸收冲击力以保护核心结构一样,组织创造了人类溃缩区,将法律和道德责任吸收到自己身上,以保护机构。

这种模式一以贯之:一个团队或供应商设计AI系统;高管批准其部署;一线员工每天使用它;出了问题。管理层将责任推卸给权力最小的工人。工人被指责"没有妥善监督AI"。组织从未被正式追责,因为责任过于分散,难以追究。

2025年一项系统研究发现,这并非偶然——算法问责在结构上是碎片化的。算法可以在其设计中体现责任,但它们无法被追责。它们不能被惩罚,不能为其决策辩护,不能感受到责任。正是这个缺口——责任名义上所在之处与实际责任落地之处之间的缺口——是转移发生的确切地点。

溃缩区效应在AI被最积极部署的高风险领域最为严重:医疗、金融、招聘和刑事司法。这些也是一线工作者(临床医生、贷款官员、招聘人员、社会工作者)在没有组织阻力的情况下最难推翻系统决策的领域。

转移已经发生的三个案例

保险索赔拒绝。 一家健康保险公司部署了一套AI工具,批评者声称该工具的训练数据系统性地低估了病后护理需求。该系统的建议大规模驱动了拒赔。申诉拒赔的错误率超过90%,但该系统仍在生产中运行。当患者提起诉讼时,公司将责任推卸给AI工具的输出结果。法院并未完全接受这一说法——公司选择围绕该工具构建拒赔工作流,选择在申诉以高比率成功时不主动纠正拒赔,并选择继续部署。AI根本没有做出任何选择。

招聘歧视。 一家主要科技公司使用的AI视频面试平台在2025年成为美国公民自由联盟(ACLU)投诉的对象,因为一名原住民和聋人申请者遭到晋升拒绝。投诉中引用的研究表明,该工具对非白人和聋人/听障人士表现更差。公司拒绝了本可让申请者绕过该系统的合理便利请求,随后援引AI的评估来为决定辩护。"系统评估了她的申请"这句话省略了:选择要求她使用该系统的人、拒绝她合理便利请求的人,以及将AI输出作为最终结论接受的人——这些都是人。

半自动驾驶。 一家汽车制造商以暗示比实际更高自主性的方式营销其驾驶辅助系统。接触过这些营销信息的驾驶者降低了警惕性,对系统的信任超出了其实际能力。当事故发生时,公司将驾驶者定性为"没有监视路面"。联邦陪审团不同意,裁定公司对设计和营销一个可预见地诱发自动化偏差的系统承担部分责任。人类在控制环路中。公司设计了这个环路。责任随设计而来,而非随存在而来。

每个案例都遵循相同的形态:一个组织就系统设计和部署做出了深思熟虑的选择,人类名义上批准了关键行动,出了问题,然后AI被引用为责任方。法院越来越不接受这种说法。

使责任无法转移的设计模式

解决方案不是哲学上的,而是结构性的。责任转移发生在系统设计对"谁批准了什么"留有歧义的时候。这种歧义是可以消除的。

强制性置信度披露。 AI系统必须在推荐结果旁边展示其不确定性。55%置信度的推荐应该与95%置信度的推荐区别对待。如果系统只展示推荐而不展示不确定性,用户就无法做出经过校准的决策——也无法在事后声称他们"知道"AI可能是错的。置信度披露转移了责任:当你明确批准了一个低置信度的推荐时,"AI错了"就不再是完整的故事。你知道它可能是错的,却还是批准了。

研究支持这一点。关于临床决策支持的研究发现,为决策者提供关于系统可靠性的更细粒度(而非汇总)信息,可以减少自动化偏差并提高决策质量。呈现不确定性不仅能改善结果——它还创造了关于批准者在决策时知悉什么信息的证据。

带身份记录的明确签核关卡。 AI可以提供建议,但高风险或不可逆的行动在执行前必须要求人类的明确批准。批准必须记录批准者的身份和时间戳。不是"系统处理了请求",而是"索赔主管Jane Smith于3月12日14:23批准了此次拒赔"。这将"谁负责?"从一个有争议的问题转变为一条可检索的日志记录。

这种模式并不新颖——它正是受监管行业处理非AI决策的方式。AI的出现并不改变这一义务。如果说有什么区别,AI使决策能够大规模发生,这让明确记录变得更加重要,而非更少重要。一个每天手动审查10个案例的索赔主管留下了纸质记录。一个监督每天处理1000个AI推荐拒赔的工作流的主管需要同等的记录——否则问责制就在量级中蒸发了。

捕获决策而非仅捕获行动的审计追踪。 一个常见的错误是记录API调用但不记录决策上下文:AI推荐了什么,声明的置信度是多少,批准者看到了什么信息,谁批准了,他们是推翻了还是接受了推荐?没有这些,事后审计可以确定某个决策做出了,但无法确定为什么在什么信息状态下。审计追踪必须作为问责契约的一部分来设计,而不是作为事后满足合规清单的补丁。

按风险级别分层升级。 并非每个决策都有相同的风险,将它们一视同仁会在两个方向上都失败。对真正低风险、可逆的决策自动批准——在这里增加摩擦只会减慢系统速度而不增加问责价值。对超过定义风险阈值的决策要求明确的审查和理由。对于不可逆、受监管或涉及超过定义金额的决策,要求在指定组织级别进行签核。这可以防止"大规模橡皮图章"的失败模式——人类理论上在批准,但实际上无法仔细审查摆在他们面前的数量。

2025年对人在环路设计模式的一项分析发现,分层升级结合身份记录的批准和范围限定的权限,是在不使AI功能失去实用价值的前提下维护问责制的最具可扩展性的模式。

法律格局正在向人类倾斜

法院和监管机构并没有朝着保护人类免受AI辅助决策问责的方向移动。他们正在朝相反的方向移动。

2025年哈佛法律与技术杂志的一项分析发现,法律标准正在从"你是否遵循了惯例行业实践?"转向"你是否为这个特定的人做出了合理的判断?"对于受监管的专业人士——医生、律师、投资顾问——信托义务是不可委托的。指向AI建议并不能转移你对客户或患者所承担的义务。

金融业监管局(FINRA)2024年的监管通知要求使用AI的金融公司实施董事会级别的监督、部署前验证和有文件记录的合规框架。欧盟AI法案要求对高风险系统进行文件化的风险评估和明确的人工监督。方向是明确的:监管机构要求组织将问责结构内置进去,而不是在出问题时希望责任向外扩散。

AI平台供应商倡导的责任保护立法将保护模型提供者,同时明确将责任分配给部署者——即在模型之上构建工作流的组织。这意味着"AI供应商的模型出错了"这一辩护理由随着时间推移只会变得越来越站不住脚。

这对构建这些系统的工程师意味着什么

如果你正在构建一个向人类展示AI建议、人类随后采取关键行动的系统,你就在构建一个问责架构,无论你是否有意为之。没有签核关卡的工作流就是一个表示"没有人专门批准这件事"的工作流。记录了行动但不记录批准者的日志就是一个助长责任扩散的日志。展示推荐而不展示其不确定性的界面,就是在创造自动化偏差的条件,并剥夺了用户行使真正判断所需的信息。

责任转移问题很少是恶意意图的结果。它源于以速度和吞吐量为优先而牺牲了让人类真正对其批准内容负责的结构的设计选择。系统让批准变得容易,让审查变得困难,然后对审查没有发生感到惊讶。

拥有持久AI部署的组织——那些在遭遇不利结果后不会机构崩溃的组织——是那些从一开始就将问责制设计进去的组织。他们知道AI将呈现哪些决策。他们定义了谁有权批准每一类决策。他们用身份记录了每一次批准。他们展示了不确定性。他们在需要之前就建立了升级路径。

那些没有这样做的组织,正在诉讼中,将责任推卸给一个无法为其制造者和操作者所做决策承担责任的系统。


问责制是一个设计选择。你可以构建保留它的系统,也可以构建消解它的系统。构建消解它的系统,然后在出问题时伸手去找AI作为责任方,正是责任转移如何成为一种组织习惯——并最终成为组织负债的方式。

References:Let's stay in touch and Follow me for more thoughts and updates