跳到主要内容

组织的免疫系统:为什么公司会扼杀那些确实奏效的 AI 功能

· 阅读需 11 分钟
Tian Pan
Software Engineer

你的 AI 功能运行良好。它通过了你构建的每一项基准测试(benchmark)。它处理了团队花费数周进行压力测试的边缘案例。试点(pilot)用户非常喜欢它。你的模型没有产生幻觉。延迟低于 300ms。评估套件(eval suite)显示全部通过。

然而六个月过去了,它仍未投入生产。法务部门要求再进行三轮审查。一位高级副总裁担心“范围(scope)”问题。拥有相邻工作流所有权的团队表示未被征求意见。财务部门说投资回报率(ROI)模型需要重构。你被告知要“进行更广泛的内部沟通(socialize it more broadly)”。

这就是所谓的组织免疫系统在起作用——它杀死的 AI 项目比糟糕的模型要多得多。

在生成式 AI 的部署中,有 70% 到 85% 没能达到预期的 ROI 目标。这并不是因为模型表现不佳,也不是因为基础设施无法扩展。而是因为组织像身体排斥异物一样排斥了它们——通过一连串的抗体反应,虽然每一个反应看起来都很合理,但集合在一起就导致了瘫痪。

构建 AI 系统的工程师往往对这种现象理解不足。直觉告诉我们要改进产品:更高的准确率、更干净的输出、更快的响应时间。但在大规模部署中被扼杀的功能,通常是那些产品指标极佳但政治指标极差的功能。接下来,我们将分析四种最常见的组织抗体、它们被触发的原因,以及唯一能让 AI 功能持续通过这些阻碍的变革管理手册。

四种抗体

1. 法务与合规僵局

法务审查是 AI 功能最容易停滞的地方。其机制非常直接:AI 部署涉及数据,数据涉及隐私法,而隐私法目前已成为涵盖 130 多个司法管辖区的迷宫,充满了重叠且有时相互矛盾的要求。GDPR 第 35 条强制要求对某些自动化系统进行数据保护影响评估(DPIA)。欧盟 AI 法案(EU AI Act)为高风险 AI 类别引入了额外的合规层,并将于 2026 年年中开始执行,违规罚款可达 1500 万欧元或全球收入的 3%。

这些担忧并非无理取闹。问题不在于法务部门有顾虑,而在于顺序。在大多数组织中,法务是在功能构建完成后才介入的。到那时,审查不再是塑造设计,而是在阻碍发布。在这个阶段提出的每一项要求都意味着返工,返工意味着延迟,而延迟往往意味着项目在工程师转向其他工作时悄无声息地夭折。

那些能绕过漫长延迟通过法务审查的 AI 功能,在构建之初就将法务视为设计伙伴,而非审批关口。相关问题——处理什么数据、存储在哪里、谁可以审计决策——需要在架构阶段就得到解答。在第二周介入法务,代价只是一次谈话;而在第 20 周介入,代价则是三个月的审查周期。

2. 职业安全感缺失的恐惧

第二种抗体更为微妙且更具危险性,因为它在正式渠道中基本上是隐形的。89% 的员工表示担心 AI 会影响他们的职业安全。这种担忧很少在会议中表现为明确的抵制,而是表现为无声的不采用:工作流没有更新,功能闲置在侧边栏,试点数据看起来不错但没人要求扩大规模。

做出这种反应的人持谨慎态度并没错。从历史上看,自动化在大规模重组工作方面确实有过先例,而且员工以前也曾被告知所谓的“增强(augmentation)”在实践中到底意味着什么。当一个 AI 功能可以处理团队当前 80% 的任务时,团队敏锐地察觉到这一点是完全正确的。

组织在这里犯的错误是假装这种担忧不存在。那些以提高效率和降低成本为核心的公告,准确地发出了一个信号:有人正在计算如何裁减员工。真正获得采用的 AI 功能,是管理层已经就自动化对该角色人员的意义进行了明确对话的功能——包括它创造了什么新工作、消除了什么旧工作,以及实际的计划是什么。在这个问题上的含糊其辞不会带来谨慎的采用,只会带来无声的破坏。

3. 政治势力范围的冲突

AI 功能如果跨越了组织边界,就会触发第三种抗体:部门对领地的防御。这种模式在大型企业中不断出现,却几乎从未被公开讨论过。

一个使用新分类模型来路由客户支持工单的 AI 功能,听起来既技术又中性。但如果它改变了团队之间工单流转的方式,它实际上是在宣示哪个团队拥有哪个问题领域。如果一个团队以前是处理某类问题的入口——且其人员编制和预算是根据该角色制定的——他们会抵制一个绕过他们的系统。他们不会说自己在保护领地,而会说分类不准确、边缘案例没处理好,或者模型遗漏了一些重要的细微差别。其中一些担忧甚至是真实存在的。

这种模式在每个领域都在重复:涉及工作流所有权的 AI 功能,是披着技术外衣的政治事件。未参与设计的团队会寻找技术理由来阻止采用。这并非不理智,这正是组织保护自己不被强加决策的方式。

对于构建者来说,这意味着组织地图(organizational map)与技术设计同样重要。在任何跨团队边界的 AI 功能发布之前,受工作流变化影响的团队必须在设计定型前参与进来——不是事后征求意见,而是真正参与塑造该功能的作用以及实现方式。

4. 领导力真空

第四种抗体是最容易解决的,但它却导致了 43 % 的 AI 落地失败:缺乏高管支持。

缺乏明确 C 级管理层负责的 AI 项目不会因为某一个决策而夭折,而是会慢慢枯竭。法务审核的优先级被降低,因为法务团队有其他在管理层层面真正被跟踪的任务。负责试点的团队被抽调去处理那些截止日期更显眼的任务。项目在 Jira 中依然存在,但已名存实亡。

只有 28 % 的组织有 CEO 直接参与 AI 治理。这 28 % 中的项目在技术上未必更出色,但它们在政治上得到了保护——这意味着它们能获得资源,能按时完成审核周期,并在部门主管抱怨未被征求意见时获得组织掩护。

高管支持不等于高管宣布。副总裁发的一封启动邮件并不构成支持。支持意味着高级领导在主动跟踪进度,将自己的信誉押在结果上,并在出现跨部门冲突时能够随时出面解决。如果没有这一点,组织摩擦就会不断累积,直到项目停滞。

为什么技术上的完备性毫无帮助

了解这些动态的工程师有时会试图通过改进产品来解决问题。他们的想法是:如果功能足够准确、速度足够快,或者 UI 足够好,阻力就会消失。但这几乎行不通,因为阻力并不是对产品质量的反应,而是对组织变革的反应。

对此的研究结论是一致的:技术实现仅占 AI 部署实际挑战的 20 %。剩下的 80 % 是人员、流程和文化。那些将转型预算的 10 % 分配给变革管理(这是典型比例)的组织,正试图用 10 % 的资源去解决 80 % 的问题。无论模型有多好,这个账都算不过来。

行之有效的策略手册

那些能从组织免疫系统中幸存下来的 AI 功能都遵循一个明显的模式。这些做法都不复杂,但都需要完成工程师本能想推迟的前置工作。

将法务视为设计合作伙伴。 在编写代码之前先解决数据和合规问题。这些问题并不难问:这个过程处理什么数据?它会做出哪些自动化决策?审计追踪是什么样的?尽早回答这些问题会塑造架构,而不是阻碍发布。

明确说明人员编制的现实。 当 AI 功能会改变某人的工作性质时,要直接说明,解释其含义,并说明计划是什么。使用含糊的“赋能”类语言来规避实际的影响会摧毁信任。进行具体的沟通,解释 AI 创造了哪些新工作,以及组织对受影响人员的实际承诺,才能促成采用。

在技术设计之前先梳理组织架构图。 对于任何跨团队的功能,要识别出每一个工作流会发生变化的团队。让这些团队的代表参与设计阶段,而不是审核阶段。目标是确保没有任何团队在发布时才发现,某些他们此前一无所知的事情正在改变他们的工作方式。

在开始之前而非之后获得高管支持。 获得高管认可最难的时候是功能已经构建完成且利益相关者已经产生抵触情绪时。最容易的时候是在任何人还没有表态之前。识别出哪位高级领导拥有解决该功能可能引发的跨部门冲突的组织权力。在项目开始前,获得他们的积极承诺——不是邮件背书,而是定期的进度检查和明确的排障意愿。

建立具有真实评估指标的增量试验。 在全企业范围内推广的功能几乎总是始于一个小群体,他们产生了具体的证据——采用率、任务完成率的提升、错误率的降低——这些证据可以用来向下一个群体游说。“相信我们,它很有效”需要的是信仰;而来自实际部署的数据需要的是评估。

一个证明该模式有效的著名案例:一家财富管理公司的内部 AI 助手在上线几周内就在其顾问团队中达到了 98 % 的采用率。关键不在于模型质量,而在于直到公司建立了严格的质量评估标准、获得了业务端(而不只是 IT 端)的领导力承诺,并运行了一个产生证据的结构化试点后,才开始全面推行。技术工作和组织工作是并行开展的。

令人不安的结论

组织免疫系统并非无理取闹。法务审核的存在是因为 AI 部署确实会带来合规风险。对工作保障的担忧存在是因为自动化在历史上确实导致了劳动力结构调整。政治阻力存在是因为组织边界是部门保护其运作能力的方式。领导力缺位存在是因为高管的精力有限,而 AI 项目正在竞争这些精力。

这些抗体都不是 Bug。它们是组织保护自己免受缺乏语境、速度过快的变革冲击的“特性”。问题不在于组织抵制 AI,而在于大多数 AI 团队只顾着追求技术上的认可,却对组织层面的排斥感到意外。

那些能持续交付 AI 功能的团队,是将组织变革管理视为工程问题的团队:识别约束条件、从一开始就针对这些约束进行设计、对部署进行监测并不断迭代。而不这样做的团队则会花费六个月的时间纳闷,为什么在演示中运行良好的东西却无法投入生产。

技术永远不是瓶颈。几乎从未是过。

References:Let's stay in touch and Follow me for more thoughts and updates