超越 JSON 模式:在生产环境中获取可靠的 LLM 结构化输出
· 阅读需 12 分钟
你部署了一个从支持工单中提取客户意图的流水线。你已经对其进行了广泛测试。它运行良好。发布三天后,一个警报被触发:下游服务因 KeyError: 'category' 而崩溃。模型开始返回 ticket_category 而不是 category —— 提示词(prompt)没有改动,只是你的提供商悄悄推行了一次模型更新。
这就是结构化输出问题。而 JSON 模式并不能解决它。
让 LLM 生成可靠符合特定形状的机器可读输出,是那种看起来微不足道 —— “只需告诉它返回 JSON 即可” —— 直到它在凌晨 3 点于生产环境中崩溃的问题。失败模式很微妙,解决方案是分层的,而不同方法之间的权衡非常重要,具体取决于你是在运行云端 API 还是自托管推理。
