用户信任半衰期:为什么一次糟糕的体验会抹除数周的信任校准
用户对 AI 功能的校准(calibration)是你交付的最昂贵的东西之一。这耗费了他们数周的注意力:学习哪些提示词有效、模型在何处可靠、何时需要复核,以及哪些内容应完全忽略。然后,一次显而易见的失败——生成的报告中出现错误数字、用户粘贴到演示文稿中的幻觉引用、或者是他们根据一个自信但错误的建议采取了行动——都可能在一次会话中让这一切化为乌有。恢复曲线是不对称的。用户的先验预期(prior)是“这是可靠的”,而这次更新并不是作为一个数据点出现的。它更像是一种背叛。
测量 DAU 的团队在数周内看不到任何异常。用户出于习惯继续打开应用,运行几次查询,不对输出结果采取行动,然后悄悄地停止使用。等到参与度指标(engagement metrics)出现波动时,导致这一结果的信任事件已经发生了两个月,团队中甚至没人记得当时发布了什么。
这就是信任半衰期问题。大多数 AI 产品团队对此都处于盲目状态,因为他们沿袭自前 AI 时代的监测手段是为不同的失败模 型而构建的。
信任不是一个数字,而是一个后验概率
当用户与确定性功能交互时,他们对其建立的模型会迅速稳定:它要么有效,要么无效,且失败模式是可预测的。提交表单的按钮每次的行为都一样。用户的心智模型在几次交互后就会收敛。
AI 功能则不会这样收敛。用户在每一次输出中都在进行非正式的贝叶斯更新(Bayesian update),针对诸如“这个功能是否能写对产品名称”、“我能信任这些财务数据吗”、“它是否足够了解我的代码库以便在不破坏功能的情况下进行重构”、“摘要是否真的准确,还是仅仅看起来像那么回事”等问题构建后验概率(posterior)。每一次成功的交互都会将后验概率推向信任。每一次明显的失败则会将其推向相反的方向——但这种影响是不对称的。
这种不对称性至关重要。一项 2025 年关于对话式 AI 使用的纵向研究发现,信任是通过交互演变的,因为用户会调整预期并优化策略,但这一轨迹并非平滑。出乎意料的失败会导致离散且剧烈的更新。用户对于“这是否可靠”的后验概率不会逐渐衰减,而是会发生跳变。一旦先验预期从“可靠”转向“不可靠”,想要恢复信任所需的成功交互次数要远多于失败所付出的代价,因为随后的每一次输出现在都在新的、充满怀疑的先验预期下被评估。
针对人类与 AI 财务咨询交互的研究用确凿的数据捕捉到了这一点:在出现明显的 AI 错误后,信任的侵蚀速度明显快 于成功交互后的信任增长速度,而且恢复信任所需的持续正确行为窗口期,比最初的校准阶段要长得多。换句话说:上周二看到你的功能产生幻觉引用的客户,需要比最初建立“我信任这个功能”时多得多的良好交互,才可能重新回来。
你现有的指标滞后于你真正需要的指标
默认的产品分析工具栈报告的是信任的滞后指标:DAU、会话时长、留存率、NPS。所有这些指标的变动都比信任本身滞后数周。一个在周二失去信任的用户,可能在周三、周四,甚至接下来的一个月里仍会打开应用——运行查询、生成输出,然后悄悄地不采取任何行动。DAU 保持平稳。直到第六周,用户停止打开应用,仪表盘显示了一次没有直接原因的流失事件。
你真正需要的是一个信任事件流(trust event stream)——一层能够捕捉信任校准所产生的领先指标(leading indicators)的监测手段:
- 验证点击。 用户打开引用、对照源数据核对生成的数字、展开脚注。校准后的验证是健康的;发布后的异常峰值则是一个信任事件。
- 撤销与重做模式。 用户接受了一个建议的编辑,然后在同一个会话中将其还原。模式频率可以告诉你模型的输出是被视为有用的建议还是干扰噪音。
- 升级率。 用户将本应由 AI 处理的任务转交给人工路径,手动编辑输出而不是直接接受,或者在中途放弃流程。
- 无行动参与。 用户生成了输出但随后没有采取任何下游行动(没有复制、没有保存、没有分享)的会话。这是 DAU 无法捕捉到的“无声信任丧失期”的预警指标(canary metric)。
每一个指标都可以从现有的遥测数据中恢复,但很少被作为一等信号(first-class signal)呈现。那些以“每用户、每功能”为基础运行这些指标的团队,可以在回归(regression)发生后的几天内看到信任更新的发生,而不是几周之后。
在失败发生前揭示不确定性
架构的另一半是故障预防:确保信任更新是增量发生的,而不是灾难性的。实现这一点的成本最低的方法是,足够明显地展示模型的不确定性,让用户的心智模型从第一次交互开始就包含“这可能会出错”的认知。这样,未来的失败将是对先验预期的确认,而非一种背叛。
- https://www.frontiersin.org/journals/computer-science/articles/10.3389/fcomp.2025.1464348/full
- https://pmc.ncbi.nlm.nih.gov/articles/PMC7034851/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC12561693/
- https://www.nature.com/articles/s41598-025-15416-8
- https://arxiv.org/html/2309.10852v1
- https://www.mckinsey.com/capabilities/tech-and-ai/our-insights/tech-forward/state-of-ai-trust-in-2026-shifting-to-the-agentic-era
- https://agentic-design.ai/patterns/ui-ux-patterns/confidence-visualization-patterns
