真正信守承诺的隐私模式:在 AI 功能中构建用户可控的数据边界
· 阅读需 11 分钟
2026 年 3 月,一场集体诉讼指控 Perplexity 的“无痕模式”(Incognito Mode)正在将对话数据和用户标识符路由到 Meta 和 Google 的广告网络 —— 甚至对于明确激活了该功能的付费订阅者也是如此。该功能被称为“无痕”。用户认为这意味着私密。但实现方式却并非如此。
这是 AI 隐私模式中最常见的失败模式:名字是营销,实现是“留存戏剧”(retention theater)。工程师上线了一个开关。法务批准了措辞。用户按下开关并信任它。但在数据管道的某处,输入内容仍在流向日志服务、训练任务或某个没人记得拦截的第三方分析 SDK。
构建一个真正起作用的隐私模式,不仅仅是在用户设置架构中添加一个布尔值。它需要重新检查技术栈中用户输入落地的每一个地方 —— 并将“无数据”视为默认,而非例外。
