第一个 AI 功能难题:为什么你首先交付的内容决定了用户接下来的接受度
大多数团队会先发布他们最大胆的 AI 功能。那个功能通常是他们研发了六个月、演示效果极佳、且让领导层倍感兴奋的作品。但它在生产环境中失败了——算不上灾难性的,但足以让用户感到不安——于是,随之而来的每一个 AI 功能都会继承这种怀疑。即使团队后来修复了最初的问题,接下来的整整一年里,他们依然会纳闷为什么采用率始终停滞不前。
这就是“第一个 AI 功能”的问题。你首先发布的内容建立了一个先例,这种影响在技术问题解决很久之后依然存在。用户对 AI 的信任建立在第一次失败之上,而非第一次成功。你发布功能的顺序比任何单一功能的质量都更重要。
为什么 AI 信任与普通软件信任不同
对于传统软件,用户会逐渐建立心理模型。他们会在数周内学习使用工具,因为能看到产品在进步而原谅早期的 Bug,并通过反复接触来校准预期。软件信任是一个渐进的过程。
而 AI 信任则是一道悬崖。
针对 AI 出错后用户行为的研究一致表明,存在一种被称为“算法反感”(algorithmic aversion)的现象:在经历一次显而易见的失败后,用户会转向完全不信任 AI——即便向他们展示客观证据证明该系统优于人类方案。这并非信心的逐渐下滑,而是一种相位转变(phase shift)。
其机制是不对称归因。当人类犯错时,用户会归因于情境因素:他们累了、太匆忙、或者信息不足。而当 AI 犯错时,用户会归因于算法本身的系统性缺陷。人类的一次错误是“状态不好”,而 AI 的一次错误则是“这玩意儿根本不行”的证据。
这种归因不对称性给那些习惯用错误率思考问题的产品团队带来了麻烦。一个准确率达到 92% 的系统听起来很了不起,直到你意识到用户并不按百分比思考。他们按“事件”思考。那 8% 的错误并非统计属性——而是“AI 搞砸的那次”,这成了用户向他人描述你产品时讲述的故事。
