跳到主要内容

推理侧个性化陷阱:当用户上下文的成本超过其收益时

· 阅读需 11 分钟
Tian Pan
Software Engineer

几乎每个 AI 产品在达到数十万活跃用户时都会出现一种模式:团队开始增加个性化——在每个 Prompt 中注入用户历史、偏好信号和行为数据——然后看着产品略微变好,而基础设施账单却大幅增加。当他们最终拉取日志并衡量每增加一个 token 带来的质量增量时,曲线的形状几乎总是一样的:早期增益陡峭,随后进入漫长的平台期,最后是你支付全价却只能换来微乎其微的回报。

大多数团队只有在深陷泥潭时才会进行这种分析。这篇文章将探讨为什么这个陷阱会存在,个性化在何处停止产生回报,以及在生产环境中真正有效的架构是什么样的。

为什么大家默认选择“更多上下文”

在推理时注入用户上下文的直觉源于一个合理的出发点。你有用户数据。模型在知道对话对象是谁时表现更好。因此:在每个请求的系统 Prompt 中注入你所知道的关于用户的一切。

问题在于,“表现更好”和“值得这个成本”并不是同一种衡量标准。

一个典型的用户画像——浏览历史、明确表达的偏好、过往交互、人口统计信号——在序列化后可能达到 800–2,000 个 token。在大规模应用下,这直接转化为基础设施成本。假设每个会话有 5 次请求,对于 10 万日活用户,每个请求注入 2,000 个 token 的上下文,意味着你每天纯粹为了个性化就在处理额外 10 亿个 token。按照目前前沿模型的定价,这个数字会对单位经济效益产生实质性影响。

更深层的问题是,这种成本随用户数量线性增长,而准确性的提升却并非如此。

无人画出的饱和曲线

注入的用户上下文 token 与响应质量之间的关系不是线性的,而是 S 型曲线(sigmoidal)。针对长上下文设置中偏好遵循的研究一致表明,模型从用户历史的前几百个 token 中就能提取出大部分有用的个性化信号。超过这个点后,额外的上下文要么因为注意力机制(该机制会低估 Prompt 中间内容的权重)而被忽略,要么因为产生检索噪声而主动降低质量。

一个说明其严重性的发现是:在零样本(zero-shot)个性化场景中,在大多数评估的模型中,仅对话历史达到 10 轮(约 3,000 个 token)时,偏好遵循的准确率就降到了 10% 以下。超过这个阈值后增加更多历史记录并不能弥补损失,反而会放大损失。模型变得注意力不集中,而不是更加个性化。

内联用户上下文的有效区域很窄。对于大多数任务,300–500 个 token 的精选用户信号带来的提升几乎与 2,000 个 token 的原始历史记录相当。团队在实践中通常做的是注入比模型能有效利用的量多 10 倍的上下文,为这些 token 付费,并将微小的质量提升归功于数据量,而非数据选择的质量。

缓存失效税

还有第二种成本不那么明显,但同样痛苦:推理端的个性化会摧毁 Prompt 缓存命中率。

模型提供方的 Prompt 缓存通过匹配 Prompt 开头的精确 token 序列来工作。如果你的系统 Prompt 以静态指令开头,后面跟着个性化的用户上下文块,而该上下文因用户而异,那么每个请求都会导致缓存未命中。你必须为每次调用的输入 token 支付全额费用。

对此进行计算的团队通常会发现,他们错过了巨额的成本节省。在一个记录在案的生产案例中,通过重新调整 Prompt 结构(将静态指令放在前面,用户上下文放在最后,并将用户上下文块减少到 200 个 token 的压缩摘要),缓存命中率从 23% 跃升至 71% —— 逻辑相同、模型相同、用户相同。成本改善是以每月数万美元衡量的,而不仅仅是 token。

架构上的博弈是真实存在的:每个请求的个性化程度越高,能缓存的内容就越少。你在用户自定义 Prompt 前缀中添加的每一个 token,都是一个阻止与其他用户共享前缀的 token。

个性化在何处物有所值

在完全否定运行时个性化之前,值得准确界定它到底擅长什么。

短周期的会话上下文确实值得投入 token。如果一个用户在三个问题前问过关于部署到 Kubernetes 的问题,现在问“我该如何处理 secret?”,那么这个会话上下文就是起关键支撑作用的。没有它,模型会给出通用答案;有了它,模型会给出特定于 Kubernetes 的答案。这是 100–300 个 token 的近期交流,而不是 2,000 个 token 的用户画像,其准确性增量是真实且可衡量的。

行为模式信号在低 token 成本下非常有效。用 20–30 个 token 告诉模型“该用户喜欢简短的回答”或“该用户是专家,跳过基础知识”,可以带来显著的输出质量提升。这比注入 500 个 token 的行为历史并期望模型从中推断出同样结论要高效得多。

高风险领域证明了溢价的合理性。医疗信息产品、法律研究工具、财务规划助手——在这些领域,个性化真正改变了安全且准确的回答应有的样子。在这些领域注入用户上下文的门槛与通用聊天助手不同。成本的合理性来自于风险的降低。

大多数团队犯的错误是将这种高风险领域的个性化模式应用到所有地方,包括那些根本无法带来实质改变的功能中。

真正有效的预计算架构

在生产环境中解决这一问题的团队并没有取消个性化,而是将其移出了推理的热路径。

缓存画像摘要 (Persona Summaries)。与其在每个提示词中注入原始用户历史记录,不如运行一个定期的离线作业,将每个用户的行为历史压缩成 100–200 token 的画像摘要。每天或在发生重大行为事件时更新此摘要。在推理时注入摘要而不是原始历史记录。这能以一小部分 token 成本保留大部分个性化信号,且由于摘要在整个会话中是稳定的,因此能与前缀缓存 (Prefix Caching) 很好地配合。

会话作用域的上下文初始化。与其在每次请求时重建用户上下文,不如在会话开始时初始化一个会话上下文对象,并在整个对话过程中维护它。模型在会话开启时看到一次完整的用户上下文,而不是每一轮。会话中的请求仅携带增量交换内容,从而保持单次请求的 token 计数较低。这种模式自然地映射到多轮对话流,且对缓存极其友好。

模板分群个性化。与其使用完全个体化的提示词,不如将用户细分为行为群体(10–20 个变体),并为每个群体维护一个缓存的提示词模板。在请求时,将单个用户分配到最接近的群体中。这牺牲了一些个性化粒度,换取了缓存命中率的巨大提升,对于推荐和建议功能尤其有效,因为在这些场景中,精确的个体建模不如合理的群体校准重要。

带有相关性门控的选择性注入。并非每个请求都需要个性化。用户询问“法国的首都是什么”时,不需要注入其职业背景。构建一个轻量级的意图分类器,作为注入个性化上下文的门控——对于用户历史不太可能改变答案的查询,默认不进行注入。这降低了平均注入的 token 数量,同时不会影响那些确实需要个性化的场景。

产品会议上没人提及的谄媚风险

过度个性化在 token 和成本之外还有一个质量维度,且很少出现在 ROI(投资回报率)的讨论中:加载了大量用户画像数据的模型会变得更倾向于附和,而非准确。

麻省理工学院 (MIT) 和宾夕法尼亚州立大学 (Penn State) 在 2026 年初发表的研究发现,存储在模型上下文中的压缩用户画像对“谄媚性 (Sycophancy)”影响最大——即模型倾向于告诉用户他们想听的话,而不是事实真相。即使存储的画像数据似乎与当前问题无关,这种效应依然可以被观察到。模型似乎将用户画像的存在视为一种信号,从而优先考虑用户满意度而非准确性。

这创造了一种失效模式:你的个性化投入实际上降低了产品的可信度。用户会注意到 AI 从不反驳,从不指出“那是不对的”,也从不提供与他们既有观点相左的信息。原本应该更有用的系统变得不再值得信赖。

在工程上的启示是:注入模型推理上下文的用户身份数据越少,模型就越能根据查询本身进行处理。在排序、格式化和回复风格上实现的个性化——而不是在模型的逻辑推理上下文中——可以让你在获得 UX 提升的同时,不牺牲准确性。

下次发布前你应该进行的 ROI 评估

在为新功能添加用户上下文之前,请进行以下测试:

将用户分为三组:无个性化、100–200 token 的精选画像摘要、以及完整用户历史注入(1,000+ token)。衡量用户感知质量,而不是模型评分的准确度——这意味着要观察实际的用户行为(留存率、后续查询、负面反馈事件),而不是本身就容易受到个性化效应影响的 LLM 评测器。计算每组的单次请求成本,并绘制曲线。

在大多数情况下,你会发现 100–200 token 组在用户感知质量上与完整历史组相当或接近,而成本仅为后者的一小部分。无个性化组在具有真实个性化依赖的任务(如任何与会话上下文相关的任务)中表现不佳,但在无状态查询中会追平或胜过完整历史组。

目标不是消除个性化,而是将 token 预算花在有实际回报的地方,并停止那些“维护性表演 (Maintenance Theater)”。目前大多数生产环境中的 AI 功能都在进行后者,却从未对其进行衡量。

结语

推理时的个性化陷阱本质上是一个衡量问题。团队之所以添加用户上下文,是因为觉得它应该有帮助,前几百个 token 确实有效,但没人衡量接下来的几千个 token 的边际收益。当规模化导致成本显现时,这种模式已经嵌入到架构中,扭转它需要额外的工程投入。

解决办法是将用户上下文的 token 分配视为任何基础设施资源一样:为其设定预算,衡量其边际收益,并削减那些没有产出的部分。真正让你的产品实现个性化的上下文,通常比你目前注入的上下文要小得多。

References:Let's stay in touch and Follow me for more thoughts and updates