跳到主要内容

AI 产品中的信任转移:为什么同一功能在一家公司成功,在另一家却失败

· 阅读需 10 分钟
Tian Pan
Software Engineer

两家公司的两个产品团队,各自构建了同一款 AI 写作助手。相同的模型,相近的功能面貌,相当的准确率指标。一个团队在上线时迎来创纪录的激活率,另一个团队则在三个月的沉寂推广和一次尖锐的全员大会质疑后,悄悄下线了这个功能。

那家苦苦挣扎的公司在工程复盘中聚焦于显而易见的变量:延迟、准确率、交互打磨。但这些因素都无法完全解释这道鸿沟。真正的关键变量是信任——更具体地说,是这个 AI 功能能否借用足够多的既有信任,换来在证明自身价值期间犯错的权利。

信任转移(Trust Transfer),是决定一个 AI 功能能否落地生根的无形力量。而大多数正在打造 AI 产品的团队,从未为此进行过明确的设计。

准确率不是激活的决定性变量

当一个 AI 功能表现不及预期时,工程团队会本能地审查准确率指标。如果模型有 80% 的时间是对的,这应该足够了——在某些场景下,的确如此。但"足够好"不是一个绝对的数字,它相对于该功能所落入的信任环境而言。

对于一个已经信任该公司的用户,77% 的正确率会被这样感知;而对于一个带着质疑到来的用户,感知则截然不同。研究持续表明,约 77% 的消费者表示,他们不会因为一家公司使用生成式 AI 而对其信任——甚至有 37% 的人表示会对其更不信任。这道鸿沟,在用户看到第一个输出之前就已存在。产品面临的是一道先入为主的偏见。

品牌信任、领域可信度和用户成熟度,共同决定了什么样的准确率阈值会让人觉得"可用"。一份来自拥有数十年临床信誉的公司的 AI 医疗摘要,与一份来自去年刚创立的初创公司的同等内容,评判方式截然不同。功能是一样的,但信任跑道却大相径庭。

B2B 与 B2C 的信任机制不同,崩溃方式也不同

企业级与消费级部署之间,信任机制存在显著差异,而发布团队通常严重低估了这一差距。

在消费者 B2C 场景中,个人用户往往对 AI 过度信任——他们接受自信的输出而不加核实,这意味着高质量的 AI 可以迅速创造真实价值,但一次备受瞩目的失败会被迅速放大。由于用户对已采用的实用工具往往记忆较短,新鲜感驱动初期参与,恢复是可能的。信任梯度倾向于采用,失败会引发喧嚣但可修复的危机。

企业 B2B 则恰恰相反。组织内的个人员工默认持怀疑态度:他们见过内部工具失败,他们承担着推荐劣质系统的政治风险,他们对 AI 侵占自己多年积累的专业领域心存抵触。信任梯度倾向于拒绝。

更关键的是,B2B 信任失败的代价是关系性的,而非交易性的。消费类产品的 AI 失误,损失一次购买或一个会话。B2B 场景中的 AI 失误,可能危及整个账户、续约收入和多年的关系资本。这正是一个有据可查的模式背后的机制:B2B 客户日常表现看似满意,却在续约时选择离开,因为自动化系统悄然侵蚀了他们花钱购买的那种高度个性化服务感。这个信号,往往在 12 个月后才姗姗来迟。

这意味着,在 B2B 场景中发布 AI 所需的信任投入要大得多,容错率更低,从信誉受损中恢复的路径也更漫长。那些以消费类 AI 产品为基准、沿用相同质量标准的团队,在企业级场景中将频频失手。

组织文化在用户接触功能之前就设定了上限

用户层面的信任只是问题的一部分。组织文化设定了一个上限,任何个人用户的热情都无法突破。

对 AI 采用结果的研究揭示了一个一致的模式:同样的技术在两个不同的组织中部署,会产生截然不同的结果,而这种分歧与文化因素的相关性,远超功能质量。以适应性、领导层参与度和对概率性结果的容忍度为特征的组织,会看到 AI 功能取得成功;以规避风险、技术怀疑和低领导参与度为特征的组织,会看到同样的功能停滞不前。

机制并不神秘。在高度怀疑的文化中,可能想要使用 AI 功能的个人员工面临社交摩擦:他们担心看起来轻信,他们会保守地覆盖 AI 输出——即便这些输出是正确的,他们也不会因为 AI 贡献了成果而得到奖励。功能存在,但环境文化让采用的代价高昂。

领导行为是这里的决定性变量。高层领导积极使用并公开背书 AI 工具的组织,其采用率是领导层被动旁观的组织的三倍。这不是一个软性的文化观察——它是信任从机构权威向产品转移的具体机制。当一位受人尊敬的领导者使用某个工具时,用户会推断该机构已经评估并认可了它,从而降低了他们个人的评估负担。

在没有争取到这种机构背书的情况下发布,意味着每个个人用户都必须独立决定是否信任这个 AI,一遍又一遍,没有社会证明,万一出错也没有保障。即便底层产品出色,这种摩擦也会扼杀采用。

信任转移的实际运作方式

信任转移,是一种 AI 功能从用户已经信任的事物中借用信誉的机制,利用这种先发优势,在功能尚新、用户尚未积累亲身体验的关键时期,降低评估负担。

产品团队可以利用多种转移来源:

领域可信度。 如果你的公司已经被视为特定领域(法律研究、财务分析、临床文档)的权威,在该领域运作的 AI 功能就会继承部分信誉。用户会假设你对 AI 应用了与其他一切相同的标准。这是最快的信任转移机制,但它只存在于品牌信任是真实的、且功能确实在核心领域运作的情况下。

流程熟悉度。 嵌入用户所信任的既有工作流程的 AI 功能,比取代或颠覆熟悉流程的 AI 工具面临更少阻力。与工作流程相关的信任会部分转移到对其进行增强的 AI 上。这就是为什么以可选叠加层形式出现在熟悉界面上的 AI 建议,胜过那些要求用户放弃既有工作流的 AI 工具。

组织内的社会证明。 一个团队中的超级用户通过使用 AI 功能取得显著成效,就为同事创造了信任转移路径。企业内部的病毒式传播,几乎总能追溯到少数几位高地位的早期采用者,他们创造了让其他人感到采用安全的社会证明。首先播种正确的用户,和功能本身同等重要。

机构背书。 这是最强大、也最容易被忽视的机制。当组织的领导层在全员大会上、在自己的工作流程中、在战略会议的讨论中公开使用并背书某个功能时,该领导层的机构信任就转移到了产品上。个人用户不再需要单独决定是否信任;机构已经替他们做出了判断。

什么不能转移信任:功能公告、入职文档、以百分比形式传达的准确率指标,以及与先前人工流程的准确率对比。这些是说服尝试,不是信任机制。它们要求用户扩展信任,却没有提供转移路径。

为信任环境而设计,而不仅仅是为功能

对产品团队的实际启示是,信任环境分析应该在功能设计之前进行,而非在发布后等到采用数据暴露问题时才亡羊补牢。

在发布 AI 功能之前,描述它将落入的信任环境:

  • 品牌在这个特定领域的既有信誉如何?不是泛泛的品牌信任,而是特定领域的可信度。
  • 目标组织或用户群的文化特征如何?风险承受能力高还是低,AI 熟悉度高还是低,在这里犯错的代价是什么?
  • 功能进入的是具有高风险和关系后果的 B2B 场景,还是个人风险较低、恢复较快的 B2C 场景?
  • 组织内的机构背书者是谁?他们是否在发布前已被纳入?
  • 功能可以锚定于哪些既有工作流程或流程来继承信任?

这种分析塑造的是功能的范围划定和排期方式,而不仅仅是设计方式。落入低信任环境的功能应该被保守地划定范围,设计时呈现更多可见的不确定性,嵌入更明确的控制,并在大规模推出前完成更多机构验证。落入高信任环境且具有强大领域可信度的功能,可以推进更快,并承受更多边缘案例的暴露。

将信任视为设计变量——而非发布后才关注的指标——的团队,才是那些能够发布与竞争对手相同底层 AI 能力、却看着它在自己的环境中成功的团队。那道鸿沟,不是模型质量,而是信任架构。

你无法用更好的模型弥补的非对称性

信任转移问题中最棘手的版本,是差距在结构上就已存在的情况。一家初创公司试图在一个由拥有数十年领域信誉的老牌品牌主导的品类中发布 AI,光靠功能质量,根本无法弥合那道信任鸿沟。信任跑道就是不够长。

应对这种结构性劣势的方法,是从相邻来源借用信任:为产品背书的早期设计伙伴,能提供社会证明的试点客户,具有领域权威的顾问。这些是信任借款——它们提供足够的跑道,以积累质量的直接证据,进而最终产生原生信任。

但借款是有代价的。借来的信任以产品表现足够好为前提——要在条款到期前将借款转化为真正的信誉。过度依赖借来的信任、却未能足够快地产生证据的团队,会陷入信誉黑洞:借来的声誉已被消耗,而原生信任尚未建立。

所需的自律是:将信任生成视为与激活率、留存率和准确率并列的一等产品指标。不只是"用户是否在使用这个功能",而是"用户是否随时间形成了对功能的校准性信任"——也就是说,他们在功能可靠时依赖它,在功能不确定时超越它,而不是完全忽视它或盲目跟随。

这种校准,比任何准确率数字,都更能决定一个 AI 功能能否存活足够长的时间,最终成就真正的价值。

References:Let's stay in touch and Follow me for more thoughts and updates