跳到主要内容

组织抗体:为什么AI项目在试点之后走向消亡

· 阅读需 13 分钟
Tian Pan
Software Engineer

演示进行得很顺利。试点运行了六周,展示了清晰的成果,与会的利益相关者印象深刻。然后,什么都没有发生。三个月后,项目悄悄被搁置,构建它的工程师转向了其他事情,公司的AI战略变成了一张写着"探索机会"的幻灯片。

这就是扼杀AI项目的模式。不是技术失败,不是模型能力不足,甚至不是预算问题。技术本身确实有效——研究一再表明,约80%进入生产的AI项目达到或超过了预期目标。问题在于那70-90%从未走到那一步的项目。

成功的试点与生产部署之间的鸿沟,正是组织抗体的栖息之所。这些抵抗机制之所以出现,恰恰是因为试点成功了——因为技术被证明是真实可行的,这突然使风险也变得真实可感。理解这些模式并学会驾驭它们,是将AI功能真正上线与在试点炼狱中虚度职业生涯的关键区别。

真正扼杀项目的四种阻力模式

合规过度

试点在受控环境中运行:预先批准的数据集、有限的用户群体、针对演示环境而非生产基础设施的安全审查。当你申请向真实用户大规模部署时,试点期间隐形的治理要求会突然浮现。

最常见的情形是:你的试点使用了精心整理的数据集并展示了出色的结果。而生产环境需要实时访问跨越多个部门、地理区域和监管司法管辖区的实时企业数据。现在你需要为模型可以访问的数据建立基于角色的权限,为每次影响决策的推理建立审计追踪,遵守你之前不知道存在的数据本地化要求,以及让第一次接触这项技术的法律团队进行审查。

这些要求都不无道理。问题在于架构层面:试点被设计来证明技术可行性,而非治理可行性。当合规团队审查生产申请时,你是在要求他们同时批准一个新技术类别、一种新的数据访问模式和一种新的运营模型。理性的回应是全面放慢节奏。

工程师犯的错误是将此视为阻挠。这实际上是试点未能解决的合规架构缺口。那些最快推进到生产的团队,是那些在试点阶段就将治理基础设施纳入设计的团队——不是因为他们对合规时间表过于乐观,而是因为在早期构建审计追踪、访问控制和合规日志记录的成本,远低于在审查压力下进行改造。

数据团队的门控

数据团队往往成为AI部署事实上的否决方,这并非出于恶意,而是出于真实的风险暴露。他们对数据质量、数据血缘和治理负有责任,而AI系统可能会以传统数据管道所没有的方式,引发关于来源、转换和问责制的新问题。

实际后果是:数据团队会为AI使用生产数据创建审批队列,这一过程可能长达数月。工程师将此视为门控;数据团队将其视为对其负责系统的负责任管理。

解决之道不是绕过数据团队——那只会制造他们所担心的技术债务。而是将AI需求翻译成数据治理语言:模型需要什么数据、在什么访问控制下、需要什么血缘追踪,以及当模型基于数据团队管理的数据产生错误输出时,谁来承担责任?在第一次对话之前将这些问题形成书面答案,门控通常就会从封锁演变为谈判。

产品经理对非确定性的不信任

产品经理以路线图承诺为生。确定性系统——传统软件、基于规则的自动化——支持"功能X在日期Y以行为Z交付"这样的承诺。AI系统则不然。你可以承诺训练一个模型,但无法承诺它将实现什么精度、在什么时间线上、具有什么边缘情况行为。

这造成了根本性的词汇错配。当工程师说"我们将在Q2之前拥有一个精度90%的模型"时,产品经理听到的是承诺。当模型达到87%并需要再一轮微调时,工程师将其视为正常迭代,产品经理则将其视为错过了截止日期。

解决方法是使用概率性规划语言。与其说"Q2之前达到90%精度",不如说"我们的目标是以70%的置信度在Q2达到90%精度,如果未能达到,则有一个以85%精度加人工审查方式上线的备选方案"。这不是在打马虎眼——这是准确的描述。它给产品经理提供了他们真正需要的东西:足够的信息来围绕你进行规划。

产品经理的阻力通常不是针对AI本身,而是针对预测可靠性。一个被AI团队承诺了确定性结果却得到概率性结果而吃过亏的产品经理,会回避AI工作。而一个与诚实沟通不确定性的团队合作过的产品经理,则会成为倡导者。

高管对幻觉风险的过度关注

听说过AI幻觉但未曾在生产中交付过AI系统的高管,往往将幻觉视为一种生死攸关且无法控制的风险。这会以一种不合理的方式在AI上呈现出通常不会施加于任何系统的要求:零错误、每个输出的完整可审计性、所有内容在触达用户之前必须经过人工审查。

技术现实是,幻觉风险可以通过分层防御来管理——降低幻觉频率的提示词工程、将输出锚定在批准数据源上的检索增强生成、捕捉常见失败模式的运行时护栏,以及针对现实错误率而非零容忍设计的人工监督。没有任何系统是完美的,问题在于错误率和错误影响相对于商业价值是否可以接受。

工程师犯的框架错误是针对幻觉反对意见为技术辩护。更有成效的做法是呈现风险管理而非风险消除:展示控制栈,用商业术语定义可接受的错误阈值,证明控制措施有效,并提出一个只有在可靠性得到证实后才授予完全自主权的分阶段推出计划。

一个以"AI可能出错"为由拒绝部署的高管并非不理性——他们只是没有看到一个能让风险变得可读的治理框架。构建这个框架,使其可观测,对话就会从"我们是否应该承担这个风险"转变为"什么是正确的风险管理方式"。

为什么试点无法转化

更深层的问题在于,大多数试点被设计来回答错误的问题。它们回答的是"这项技术能工作吗",而真正重要的问题是"这项技术能在我们组织的约束条件内工作吗"。

一个展示了令人印象深刻的演示结果、但未触及合规栈、未经过真实的数据治理审查、未浮现产品经理问责问题、未解决高管风险框架的试点——那个试点是技术能力的证明,而不是组织可部署性的证明。而组织无法部署技术能力;他们只能部署符合其运营、治理和风险框架的事物。

加载中…
Let's stay in touch and Follow me for more thoughts and updates