技能萎缩陷阱:AI 辅助如何悄无声息地侵蚀那些最依赖它的工程师
一项针对 52 名初级工程师的随机对照试验发现,使用 AI 辅助的工程师在理解与调试测验中的得分比独立完成任务的工程师低 17 个百分点——几乎相差两个字母等级。调试能力——恰恰是 AI 应该增强的技能——呈现出最大的差距。而这仅仅发生在一次学习课程之后。将此推演至一年的日常 AI 辅助使用,你就能理解,为何几家公司的资深工程师悄悄反映,团队推理复杂问题的方式已悄然改变。
AI 工具带来的技能萎缩问题是真实存在的,可以量化的,且对中级工程师的冲击最为显著。以下是研究所揭示的规律,以及你可以采取的应对措施。
感知偏差是第一个预警信号
在讨论哪些能力正在退化之前,有必要先明确一点:大多数工程师对此毫无察觉。
一项针对 16 名经验丰富的开发者的研究——他们平均在同一成熟开源项目上工作了五年——分别测量了有无 AI 辅助时的实际任务完成时间。开发者预测自己使用 AI 后会快 24%,完成每项任务后自评快了 20%,而客观测量结果却是慢了 19%。
感知表现与实际表现之间存在 40 个百分点的差距。而这些都是在自己熟悉的代码库上工作多年的资深工程师,并非在陌生领域摸索的初学者。
这种感知偏差从结构上来说极具危险性。如果你感觉越来越快,实际上却越来越慢,你就没有任何内部信号可以用来自我纠偏。你会更加依赖 AI,加速底层技能的退化,同时感觉愈发自信。
航空业数十年前就发现了同样的规律。当长途自动驾驶仪成为标准配置后,飞行员的手动飞行时间减少了。法航的内部调查发现,机组人员普遍出现"常识和通用飞行知识的丧失"。当 AF447 的自动驾驶仪在 38,000 英尺高空断开时,那些多年来每月手动飞行不足几小时的飞行员无力恢复控制。他们需要的手动技能已经萎缩,而自动化系统将这一切掩盖得严严实实——直到它断开的那一刻。
哪些技能正在退化(以及为何难以察觉)
Anthropic 研究的细节至关重要,因为它表明退化恰恰集中在对资深工程师最为关键的技能上。
理解差距在所有问题类型中均有体现,但在调试方面最为突出。这在机制上合情合理:当你使用 AI 修复错误时,你打断了"遭遇错误—诊断—解 决"这一构建调试直觉的循环。错误仍然被修复了——甚至更快——但通过亲历并克服错误所获得的学习并未发生。对照组参与者每次课程平均遭遇三个错误,AI 使用者只遇到一个。对照组那些"额外"的错误,正是在 AI 使用者身上从未发生的认知工作。
2026 年一项针对开发者的调查印证了这一规律在生产环境中的存在。96% 的开发者表示不完全信任 AI 生成的代码,但只有 48% 的人表示在提交前始终会验证代码。与此同时,AI 已占已提交代码的 42%,预计到 2027 年将达到 65%。这种在宣称的怀疑态度与实际行为之间的落差,正是技能萎缩引擎全速运转的驱动力:工程师知道应该更仔细地审查,但审查能力恰恰是在不独立练习时最难维持的技能。
系统设计呈现出不同但相关的模式。当 AI 随时可用时,工程师倾向于在 AI 建议的基础上迭代,而非从第一原则出发进行综合推演。随着时间推移,在没有初始脚手架的情况下从约束条件推演到架构设计的能力逐渐弱化。工作从综合推演转向评估,而对看似合理的 AI 输出进行评估,所需的专业判断力甚至比综合推演更强,而非更弱。
微软研究院针对 319 名知识工作者的调查(在 CHI 2025 上发表)发现,对 AI 工具的信心越高,批判性思维反而越少;而自信心越强,批判性思维则越多。这其中的讽刺是结构性的:AI 通过出色地处理常规任务,消除了那些本可培养专家判断力的练习机会。常规,恰恰是训练场。
