跳到主要内容

制度性知识流失:AI Agent 如何在不传递理解的情况下吸收决策

· 阅读需 11 分钟
Tian Pan
Software Engineer

在一个金融科技团队推出 AI 编程智能体来处理日常后端任务的三个月后,一位资深工程师离职去了另一家公司。当团队试图还原六周前做出某些身份验证决策的原因时,却发现没有人能做到。PR 描述写着“按讨论实现”,提交信息写着“根据需求”。AI 智能体做出了选择,代码正常运行,而背后的推理过程却消失得无影无踪。

这并非文档记录的失败。当原本用于传递理解的渠道——工程师之间的往复沟通、解释带来的摩擦、向他人证明决策合理性的压力——被一个优化输出而非优化理解的系统所取代时,必然会发生这种情况。

问题在无声无息中累积。在任何给定的周内,一个由 AI 辅助的团队交付的功能更多、关闭的工单更多、生成的代码也比以前更多。生产力指标看起来很棒。但未被追踪的是组织理解力自我消耗的速度。

推理渠道,以及它为何重要

在传统的工程团队中,知识通过人流转。当一名初级工程师询问资深工程师为什么要选择某种特定的 API 设计时,资深工程师不仅仅是在回答——他们是在重构推理过程:考虑过哪些替代方案、哪些约束条件排除了它们、两年前发生的哪次事故让团队对共享状态持保守态度。这种重构并非纯粹的开销。它是推理过程被压力测试、优化并最终被新成员吸收的方式。

AI 智能体阻断了这一渠道。当任务交给智能体时——例如“实现 Webhook 重试逻辑”——智能体直接产出结果,而无需向任何人解释其选择。没有人问为什么指数退避从两秒而不是一秒开始。没有人争论幂等键应该放在 Header 还是 Payload 中。输出出现了,通过了测试,发布了。决策存在于代码中,但那些可以被质疑、重新审视或学习的推理过程,在任何地方都不存在。

这就是组织知识流失与普通文档债的区别所在。文档债意味着你有知识但没写下来。而这种流失意味着推理过程从未以人类可以捕捉的形式出现,因为 AI 智能体根本不需要展示它。

导师制位移效应

对组织理解力的破坏集中在工程团队的初级阶段,但其机制却是资深工程师行为的变化。

在 AI 编程智能体出现之前,资深工程师会花大量时间指导初级工程师——这并非慈善活动,而是业务运行的必要。一个陷入陌生问题的初级工程师最终会寻求求助。资深工程师会进行诊断、解释,并在过程中传递上下文:“我们在 2023 年尝试过那种方法,结果出了这些问题。”这种传递是低效的,但也是不可替代的。

有了 AI 智能体,逻辑发生了转变。如果初级工程师可以在 30 秒内向智能体提问并获得可用代码,为什么还要花 30 分钟带他梳理缓存设计?从资深工程师的角度来看,这是理性的。但从组织的角度来看,这是一次永远不会发生的导师互动,以及一段永远不会被传递的推理过程。

数据证明了这一点。自 2022 年以来,初级开发人员的招聘规模缩减了约 67%。IT 就业中初级和应届生的占比在三年内从 15% 左右降至 7%。哈佛大学一项追踪 6,200 万名工人的研究发现,在积极采用 AI 工具的企业中,初级员工的就业率在六个季度内下降了 9-10%。这些不仅仅是劳动力市场统计数据。它们证明了知识传递的组织层级——从经验丰富的实践者到成长中的实践者——正在变薄。

“关闭 AI”揭示了什么

检验组织知识流失最清晰的方法并不是你可以预先收集的指标,而是当 AI 工具无法使用时会发生什么。

运行过这种实验的团队(无论是刻意为之还是由于供应商停机)一致报告了相同的模式。资深工程师可以依靠积累的理解继续工作。中级工程师的挣扎程度与其近期工作中 AI 介入的比例成正比。而那些几乎完全在 AI 辅助工作流中成长起来的初级工程师发现,他们表面的胜任力在脱离辅助的情况下无法转化。

这并不是对 AI 工具的批判。而是一种诊断,用于判断知识传递是否真实发生。如果当智能体不在时,团队无法还原系统为何如此运行,那么智能体就是在代为决策,而不是在帮助人类决策。

这种测试的一种变体比听起来更常见:核心工程师离职。由于 AI 智能体总是更快,他们掌握的组织知识从未传递给其他人。工程经理在离职面谈中发现,过去 18 个月做出的决策没有记录在任何文档中。它们存在于智能体的输出中,没有归属,没有上下文,也没有让这些输出变得合理的推理逻辑。

知识侵蚀的三种机制

这种流失是通过几种不同的机制运作的,值得分别去理解,因为每种机制都有不同的对策。

理解绕过 (Comprehension bypass) 发生在工程师在没有建立所修改系统的内部模型的情况下,就产出了正确的输出。曾经能发现概念性误解的代码评审,现在变成了走过场,因为代码在语法上是正确的,而评审者没有更快的方法来评估工程师是否真的理解了他们所构建的东西。随着时间的推移,团队中积累的工程师可以指挥智能体 (Agents),却无法对系统进行推理——这种能力在 AI 不可用或问题超出智能体领域之前看起来都没问题。

评审萎缩 (Review atrophy) 是指作为知识传递机制的人工评审过程的衰退。在健康的代码评审中,评审者在做两件事:检查代码和教导作者。随着 AI 生成的代码变得越来越好、越来越普遍,教导功能被挤压了。评审变成了一种正确性检查,而不是一种导师式的互动。“文档可以序列化规则,但不能完全传递判断力,”正如一位从业者的描述。判断力的传递曾在评审中发生,而现在正在减慢。

决策不透明性 (Decision opacity) 是连接另外两者的结构性问题。当智能体做出设计选择时——无论是模式结构、重试策略还是错误消息格式——该选择进入代码库时,并没有记录曾考虑过的替代方案或驱动结果的约束条件。下一位接触该代码的工程师必须逆向推导其逻辑,或者更常见的是,直接接受该决策并绕过它工作,而从未真正理解它。

真正有效的保护模式

那些处理得很好的团队并不是减缓了 AI 采用的团队。相反,他们建立了深思熟虑的结构,以确保即使在智能体处理执行时,推理过程仍能在人类之间流动。

带有推理摘要的决策记录 (Decision logging with reasoning summaries) 是最直接的干预措施。在智能体产出结果之前,工程师被要求记录正在做出的决策,并在看到输出后,注明为什么选择该方法而不是其他替代方案。这听起来像是额外的负担。但如果做得好,每个重大决策只需花费两到三分钟,并且能产生比提交信息 (Commit message) 更有价值的记录,因为它捕获了被拒绝的方案,而不仅仅是被接受的方案。

强制评审轮值 (Mandatory review rotations) 通过要求代码评审轮流包含一名初级评审员来解决评审萎缩问题——目的不是为了捉虫,而是要求高级工程师进行讲解。如果无法给出解释,那就信号表明该决策尚未被充分理解,不足以被辩护。这种约束创造了 AI 的普及原本已经消除的教学时刻。

面向人的推理摘要 (Human-facing reasoning summaries) 是一项结构性要求,而非一种奢望。当智能体产生重大输出时,指挥智能体的工程师要用通俗易懂的语言写一段推理摘要——不是代码做了什么,而是为什么要采用这种方法。这个摘要存在于 PR 描述、内部维基或轻量级决策日志中。它不是详尽的文档,而是未来工程师在无需逆向工程实现过程的情况下,理解该决策所需的最小推理重建。

结构化的入职接触 (Structured onboarding exposure)——借鉴自医学住院医师模型——要求高级工程师投入固定比例的时间(通常为 20–30%)与处于成长阶段的工程师进行配对工作,并明确期望这涉及教授判断力,而不仅仅是提供答案。这是一项资源投入,而非建议。那些将导师制度留给非正式激励的团队会发现, AI 的可用性已经消除了过去促成这些互动的非正式压力。

不断叠加的问题

机构知识流失之所以难以应对,是因为它在没有明显症状的情况下不断叠加。一个消耗现有专业知识速度快于更新速度的团队,在很长一段时间内看起来仍然是高效的。代码照常交付。系统基本运行正常。工程经理跟踪的指标——速率、吞吐量、部署频率——都在持续改善。

揭示流失的滞后指标是事故率、评审负担、新工程师的理解时间以及变更失败率。这些指标变化缓慢。当它们明显呈上升趋势时,团队往往已经失去了那些掌握着能防止这些事故发生的机构上下文 (Institutional context) 的高级工程师。

现在正在解决这个问题的团队并不是因为问题已经显现。他们这样做是因为他们从已经观察到的现象中进行了推断——无法调试自己代码的初级工程师、沦为正确性检查而非对话的评审、在无人理解为何选择该方案的情况下就通过的 PR——并得出结论:这种趋势不会自行逆转。

这对工程负责人提出了哪些要求

机构知识流失并不是 AI 工具供应商能够解决的问题。他们的动力方向正相反:追求更强的智能体能力、更高程度的任务自动化,以及每个工程师产出更多的结果。组织理解力的保留是组织的责任。

意识到这一问题的工程负责人正在做出一些具体的改变。他们将决策日志纳入了他们的“完成”定义(definition of done)中。他们将导师辅导时间视为一项不可协商的预算支出,而不是在完成其他工作后的剩余时间。他们正在有意识地进行“无辅助”演练,以校准团队在没有 AI 工具的情况下的运作能力——这并不是因为他们打算移除这些工具,而是因为有辅助和无辅助表现之间的差距,衡量了有多少理解力得到了传递,又有多少被外包了。

目标并不是要保留 AI 时代之前工程开发的低效。而是要确保 AI 智能体辅助人类判断,而不是取代它。这种区别至关重要,因为判断力才是复利增长的源泉。一个理解系统为何如此设计的工程师,其价值会随着时间的推移而增加。而一个能在不理解底层决策的情况下指挥智能体的工程师,会陷入一种无法产生复利效应的依赖。

五年后最强大的团队,不是那些自动化速度最快的团队。而是那些在实现自动化的同时,没有让推理过程消失的团队。

References:Let's stay in touch and Follow me for more thoughts and updates