解释债务:为什么用户有权知道你的AI做了什么
· 阅读需 9 分钟
贷款申请被拒。候选人在招聘流程中被过滤掉。医学影像工具将某张扫描标记为异常。在每一种情况下,AI系统都做出了一个至关重要的决定——而用户毫不知情其背后的原因。
构建这些系统的团队往往花费数月时间调整精确率、召回率和输出质量。他们进行A/B测试,迭代提示词,最终交付了一个94%准确率的模型。但他们从未构建那个告诉用户发生了什么的层。这就是解释债务:在没有归因、置信度信号和申诉机制的情况下发布AI决策所积累的代价——这些要素本可以让决策具有可解释性。
这笔债务在悄无声息中复利增长。得到错误或令人意外结果的用户无法对其提出异议,无法校准信任,甚至不知道是否该信任这个系统。支持工单成倍增加,信任逐渐侵蚀。到某个时间点,监管机构开始提出你的系统无法回答的问题。
