跳到主要内容

影子 AI 治理难题:为什么禁止个人 AI 账号会让安全性变差

· 阅读需 9 分钟
Tian Pan
Software Engineer

90% 的公司员工都在使用个人 AI 账号——ChatGPT、Claude、Gemini——来完成工作,而其中 73.8% 的账号是非企业性质的。与此同时,57% 使用未经批准的 AI 工具的员工正在与其共享敏感信息:客户数据、内部文档、代码、法律草案。大多数高管认为他们的政策可以防止这种情况发生。但数据表明,实际上只有 14.4% 的团队部署的 AI 获得了全面的安全批准。

领导层认为正在发生的事情与实际发生的事情之间的差距,就是影子 AI 治理问题。

大多数公司的本能反应是下达禁令。在网络层面封禁个人聊天机器人账号、发布政策备忘录、进行年度培训,并称之为治理。这是最糟糕的应对方式——不是因为担忧是错误的,而是因为这种干预措施在没有缩小问题的同时,反而让问题变得不可见。

禁令策略在 AI 领域行不通

十年前,公司试图通过全面禁止个人云存储、USB 驱动器和个人电子邮件办公来遏制影子 IT。那个时代的教训是一致的:禁令减少的是可见性,而不是使用量。员工会找到绕过的方法——他们使用手机、家庭网络、个人账号——而 IT 团队则失去了让问题变得清晰可辨的遥测数据。

AI 是同一个问题的更高难度版本。与 USB 驱动器不同,AI 不是一种人们拿起又放下的离散工具。它已深度融入知识工作者的产出方式中:起草电子邮件、总结文档、调试代码、生成报告初稿。告诉销售人员不能使用 ChatGPT,就像是在告诉他们停止使用已经融入日常工作流的生产力工具。有些人会遵从,但大多数人会绕道而行。

数据证明了这一点。MIT 的一项研究发现,90% 公司的员工在工作中使用个人聊天机器人账号。其中,57% 的人表示他们的直属主管知情并支持这种行为。你认为行之有效的禁令,实际上正被你的中层管理人员和最高产的员工积极规避。

真正的成本体现在违规经济学中。IBM 的《2025 年数据泄露成本报告》发现,涉及影子 AI 的事件平均成本比其他事件高出 67 万美元。这种溢价的存在正是因为影子 AI 的使用对于安全工具是不可见的——你无法监测你看不到的东西。

在禁止之前先进行调查

当你发现影子 AI 的使用时,正确的第一个举措不是禁止,而是调查。你需要了解范围、涉及的数据类型,以及哪些团队在推动使用,然后才能设计出真正降低风险的应对方案。

调查工作分为三个层面:

发现暴露面。 查看 AI 服务域名的 DNS 查询日志和代理流量。审查托管设备上安装的浏览器扩展。检查费用报告中的 AI 订阅费用。大多数公司会发现,使用模式比预期的要广泛得多——不仅是初级工程师在实验,还有销售团队起草外联邮件、法务团队总结合同、财务团队构建模型。

对发送的数据进行分类。 真正的风险不在于抽象的 AI 使用,而在于特定类别的数据通过不受管的渠道离开公司边界。在你拥有可见性的 AI 端点出口流量上运行日志分析,并针对你无法看到的部分进行定向员工调查。典型的细分情况:技术团队分享代码和内部文档;销售和支持团队分享客户记录;高管分享战略计划和财务数据。每个类别都有不同的风险状况和监管含义。

识别推动使用的用例。 使用影子 AI 的员工并非为了好玩。他们这样做是因为它能显著提高他们重复性任务的速度。如果你批准的替代方案不能解决这些特定的工作流,禁令就不会奏效。在制定政策之前,请先梳理用例。

数据分类是承重墙

治理问题本质上并不在于员工使用哪种工具。它在于什么样的数据通过缺乏数据处理协议 (DPA)、审计日志和保留控制的渠道离开了公司边界。

每个行之有效的企业级 AI 治理项目都建立在数据分类方案之上。典型的层级包括:

  • 公开 (Public):公司外部已有的信息。对 AI 交互没有限制。
  • 内部 (Internal):非公开但泄露风险较低的运营数据。允许在经过批准的工具中使用 AI。
  • 机密 (Confidential):客户数据、财务数据、人事记录、源代码。AI 交互仅限于具有 DPA 覆盖且不对你的数据进行模型训练的核准工具。
  • 受限 (Restricted):受监管的数据——如 GDPR/CCPA 框架下的 PHI、PII、商业秘密、并购材料。AI 交互需要明确批准,且可能被完全禁止。

这种方案的价值不在于标签本身,而在于你可以在下游利用它们做些什么。一旦数据被分类,你就可以在工具层面强制执行规则:此类数据只能在这些条件下、伴随这些日志要求,并仅能与这些工具配合使用。这种强制执行可以通过 DLP 系统和网络控制自动完成,而无需依赖员工个人的判断。

访问范围界定同样重要。并非每个能访问数据集的人都应该被允许将其发送给 AI。基于角色且跟随数据(而非仅跟随用户身份)的访问策略,为你提供了一个全面禁令无法提供的控制平面。

让官方渠道比影子渠道更易用

企业 AI 治理面临的采用问题在于:如果经过批准的工具比员工现有的个人账号更难用,他们就不会使用它。在 2018 年,FDA 终于批准了。而在 2024 年,许多早期的企业 AI 部署确实更糟——速度更慢、限制更多、功能缺失,且更难与现有工作流集成。

这种情况已经发生了变化。与主要供应商(OpenAI Enterprise、Anthropic 的团队和企业层级、Google Workspace AI)签署的企业 AI 协议现在包含:

  • 数据处理协议,通过合同禁止使用你的数据来训练模型
  • 记录发送了哪些数据以及发送时间的审计日志
  • SSO 集成和集中式用户管理
  • 让每个席位的成本与个人订阅相比具有竞争力的批量折扣

IT 部门的工作不仅仅是在纸面上评估这些产品,而是要以消除员工现有工作流摩擦的方式来部署它们。如果工程团队一直在使用个人 Claude 账号审查代码,那么官方提供的替代方案就需要与他们的 IDE 或代码审查工具集成。如果销售团队正在使用 ChatGPT 撰写外联邮件,那么官方的 CRM 集成就需要在他们需要使用的地方可用。

安全目标是让员工不想使用他们的个人账号,因为官方替代方案能更好地完成工作,而且在他们需要时触手可及。

为什么“治理演戏”会产生最坏的结果

“治理演戏”(Governance theater)是一种失败模式,即安全团队产出了看起来像治理的产物——书面政策、培训计划、AI 治理委员会、风险框架——但缺乏让治理落地的运营实质。

演戏的指标非常具体:

  • AI 治理委员会没有否决权。它向同样没有否决权的指导委员会汇报。
  • 有政策文件,但没有执行政策的技术控制手段。
  • 年度 AI 安全培训涵盖的用例与员工的实际操作不匹配。
  • 安全团队无法回答这个问题:“我们如何知道员工昨天是否将客户记录发送到了个人 AI 账号?”

如果你无法回答最后一个问题,那么你就是在演戏。演戏的危险不仅在于它未能降低风险,更在于它通过营造控制的幻觉,主动增加了风险。高管变得信心满满。安全团队降低了该问题的优先级。只有 37% 的组织拥有 AI 治理政策,但 82% 的高管确信他们的政策可以防止未经授权的 AI 使用。这种信心差距正是导致最严重泄密后果的原因。

真正的治理具有可观察的后果。向未经批准的工具发送受限数据的用户会收到警报。重复违规会触发访问审查。安全团队拥有实时显示与 AI 相关的数据导出的仪表板。官方工具生成的审计追踪会真正得到审查。

检验你的治理是否真实的简单测试:挑选一个重要的违规行为(例如将客户记录发送到个人 ChatGPT 账号),并询问当前的控制措施是否能在 24 小时内检测到。如果诚实的回答是否定的,那么你的治理计划尚未投入运行。在写下一份政策备忘录之前,先编写检测能力。

目标是可见性,而非禁止

“影子 AI”带来的安全问题不在于员工正在使用 AI,而在于他们通过对安全团队不可见、不受数据协议约束且未经审计的渠道在使用它。治理的目标不是停止 AI 的使用,而是让 AI 的使用变得可见、受限且可审计。

全面禁止无法通过这项测试,因为它们用一个可见的问题换取了一个不可见的问题。原本在公司浏览器中公开使用 ChatGPT 的员工,现在改用手机或家庭网络使用,完全脱离了你的控制范围。你让使用报告上的数字好看了一些,却让实际风险变得更糟。

行之有效的路径听起来更难:调查实际发生的情况,对存在风险的数据进行分类,构建优于影子方案的官方渠道,并装备你的控制措施以便检测到违规行为。这比写一份政策备忘录要多做很多工作。但这也是缩小“你认为拥有的安全态势”与“事件报告中呈现的安全态势”之间差距的唯一方法。

References:Let's stay in touch and Follow me for more thoughts and updates