大多数 AI 内容审核系统都围绕一个核心问题构建:有害内容是否被放行?漏报——那些溜过去的有害内容——会以社交媒体截图、事故复盘和监管问询的形式出现。误报——那些被拦截的合法内容——则悄无声息地消失,转化为用户挫败感、放弃的会话和流失的账户。这种可见性上的不对称造成了系统性的错误校准:团队将过滤器调得过于激进,然后困惑于为何专业用户觉得产品"完全没法用"。
工程层面的现实是:每一次阈值决策都会产生两种错误率,而非一种。只针对最容易度量的那种进行优化,最终得到的过滤器在演示时表现出色,却在规模化后造成真实的业务损失。

两种错误都有代价——但只有一种会出现在复盘报告里