LLM作为裁判:构建真正有效的评估器实用指南
大多数 AI 团队都在错误地衡量事物,使用错误的方式,并且让错误的人参与其中。典型的评估设置是这样的:一个 1 到 5 的李克特量表,少量示例,以及一个初级工程师进行数据统计。然后有人会构建一个 LLM 评判者来自动化这个过程——六个月后却想不明白为什么整个系统漏洞百出。
如果方法得当,将 LLM 用作评判者是一种强大的模式。但“方法得当”这个词在句子中承载了大量工作。本文是一个具体的指南,教你如何构建与实际质量相关联、捕获真实回归问题并经受住生产环境考验的评估器。
