长对话中的意图漂移:为什么你的智能体目标表征会失效
· 阅读需 10 分钟
大多数关于上下文窗口(context windows)的讨论都集中在模型能“容纳”什么。更难的问题是模型如何“处理”它所容纳的内容——具体来说,它如何追踪对话者不断演变的目标。
意图并非一成不变。用户从模糊的描述开始,通过迭代不断细化,有时会自相矛盾、离题或修正。他们在第 40 条消息时真正的需求,未必是他们在第 2 条消息中所表达的内容。如果一个智能体将上下文视为扁平的追加日志,它会堆积所有信息——但仍然会误判当前的意图。
这种情况通常表现为幻觉。智能体自信地执行用户在三轮对话前就已经放弃的需求。但当你溯源失败原因时,会发现没有哪一步是错误的。智能体逻辑严密地遵循了每条指令。问题在于,这些逻辑是应用在一个已经发生偏移的目标之上的。
