AI 如同永久实习生:企业工作流中的角色-任务鸿沟
几乎每一次企业 AI 部署中都会出现同一种模式:工具在演示中表现出色,上线生产后却悄然止步于 70–80% 的潜力。团队将其归咎于模型质量、上下文窗口限制或检索失效。然而大多数情况下,这个诊断是错的。真正的问题在于:他们要求 AI 扮演一个它在结构上无法胜任的角色——至少目前如此,也许永远如此。
"AI 能完成这项任务"与"AI 能胜任这个角色"之间的鸿沟,是企业 AI 领域最昂贵的误解。
任务与角色是两回事
当一名团队成员离职,你将其工作交给 AI 工具时,你交出的不仅是一系列任务,而是一个职位——组织图谱中的一个节点,附带信任关系、权限边界、情境记忆和问责机制。任务是离散的,角色是持续的。
实习生可以转录会议记录、起草摘要、做竞品分析,但实习生无法批准合同例外、判断哪位副总裁需要介入某次敏感升级,也无法读出工程负责人那句"没问题"背后实际上意味着"六个月后我会抱怨这件事"。这些不是多读文件就能弥补的知识缺口,而是组织地位的缺口。
AI 工具面临同样的结构性局限——而几乎没有人为此做出设计。
以金融服务公司的升级路由为例。成文政策有 47 页,但真正的决策取决于:这笔交易是否针对一级关系客户、季度末是否在两周内、审查例外的风险官是否在休假。这些情境没有任何一条存在于知识库中,它们分散在 Slack 消息、日历状态以及在场足够久、见过这种模式重复出现的人的记忆里。
AI 工具可以读完那 47 页政策,标记出需要例外审批。但它无法判断:正确的做法是在工单进入正式队列之前,先致电风险官的副手。
三大结构性鸿沟
企业工作流在 AI 交接处失败,有三个反复出现的原因:权威、周期和判断。
权威是最容易理解、也最难事后修补的。组织通过正式权威(谁有签字权)和非正式权威(谁的意见实际上决定结果)的组合来做出决策。AI 系统只能访问正式层,几乎完全缺失非正式层。当 AI 智能体提出建议时,它无法强制达成共识、疏导阻力,也无法做出那个让交易重新启动的策略性让步。它能产出结果,但无法施加影响。
升级问题让这一点更加复杂。人类凭直觉解决的模糊性——这是例行例外还是深层问题的信号?——一旦通过 AI 系统路由,就会产生大量升级。在没有重新设计升级架构的情况下部署智能体的组织, 最终往往需要更多人工审核时间,而非更少。
周期是随任务复杂度线性扩大的能力鸿沟。长周期任务要求在数十乃至数百个步骤中保持连贯的意图,往往横跨数日乃至数周的实际时间。当前 AI 系统的上下文窗口在营销材料中听起来令人印象深刻——数百万 token——但企业代码库动辄横跨数千万 token,一个 20 人团队一年的 Slack 消息量远超任何上下文窗口所能容纳的范围。
更根本的是,上下文窗口不是记忆。会话结束,模型便遗忘一切。"迷失在中间"效应意味着,即便在单次会话内,当相关信息埋藏在长上下文的中部而非首尾时,性能也会显著下降。一个已运行六个月、伴随着需求演变、人员更替和积累决策的项目,对于只能看到当前窗口内容的 AI 而言,几乎是不可见的。
结论是:AI 在技术娴熟的人类能在单次专注会话内完成的任务上表现出色。随着周期延伸,性能急剧下降——且这种下降不是线性的。错误复利意味着一个 50 步工作流的第 3 步出现的错误,会悄然污染其后的所有环节。
判断是最难量化、却在组织层面最具决定性意义的鸿沟。企业中的判断不仅仅是独立做出正确决策,更是做出顾及社会织物的决策:谁需要在这个决策中感到被倾听,即便他们没有正式权威?无论组织架构图如何,这个团队中真正的技术决策者是谁?何时邮件的语气比内容更重要?
这种人际校准不存在于任何系统记录中,它存在于在特定组织与特定人共事多年所积累的模式识别中。用通用企业文本训练的 AI 工具,没有获取这种能力的机制。
