你的 CS 团队构建了一个影子 Agent。这就是你的路线图。
你支持团队的一位高级 CSM 花了一个周末搭建了一个内部 Slack 机器人。他们自己编写了系统提示词(system prompt),并将其指向了公开文档、Zendesk 已解决工单的导出数据以及变更日志(changelog)。六周后,它能回答团队以前需要手动输入的约 40% 的一级(tier-1)问题。你的工程团队架构中没人知道它的存在。当平台团队第一次发现它时,安全部门的人会问,为什么一个服务账号会在凌晨 3 点访问 Zendesk 的 API。
默认的反应是恐慌。封锁 API 令牌。发送一封关于未经授权 AI 的全公司邮件。在下一次治理审查中增加一张幻灯片。然后承诺平台团队将在下个季度,按照正式的路线图(roadmap)构建“官方版本”。
这种反应忽略了实际发生的情况。CS 团队并没有擅自行动 —— 他们构建了一个工程团队尚未交付的产品的可用原型。他们拥有真实的反馈数据、真实的提示词迭代周期和真实的用户反馈。而你的平台路线图里这些都没有。将这个机器人视为合规违规行为,会丢掉你的 AI 计划今年能获得的最准确的优先级信号。
影子 AI 是新时代的影子 IT,我们以前经历过这种事
这种模式已有 20 年的历史。在 SaaS 时代,销售团队违背 IT 部门的意愿采用了 Salesforce,营销团队用个人信用卡支付了 HubSpot,设计团队偷偷引入了 Figma。等中央 IT 部门注意到时,这些工具已经成为了业务的支柱。胜出的公司是那些调查了未经授权的使用情况、认可了重要的工作流,并将剩余部分纳入受监管基础设施的公司。失败的公司则花了两年时间构建低劣的内部替代方案,眼睁睁地看着高效团队离职。
影子 AI 正在以更快的速度重演同样的戏码。行业调查显示,超过 40% 的企业 SaaS 位于正式 IT 审批之外,最近的报告表明,近一半的客户服务人员现在使用其雇主未批准的 AI 工具。这个数字并不是治理失败 —— 它衡量了官方工具落后于员工实际工作的严重程度。禁令无法解决问题。一项医疗行业的研究发现,在正式禁止后,近一半的员工仍继续使用个人 AI 账号,唯一真正改变行为的干预措施是提供一个能胜任工作的经批准的替代方案。
有效的思维模型:影子 AI 是一个自下而上的产品发现渠道。像管理风险一样治理它,像挖掘需求一样挖掘它。失败的思维模型:影子 AI 是一个安全事件,每个案例都是要消除的东西,且工程团队有权决定 AI 路线图一直以来应该是什么样子。
