生活网 10月7日 消息:传统方法中,提高LLMs性能需要通过人工注释来收集更多多样化和高质量的训练数据,但这是一项资源密集型的任务,尤其是对于专业领域而言。为了解决这个问题,来自伊利诺伊大学厄巴纳-香槟分校和Google的研究人员提出了“Implicit Self-Improvement (PIT) framework”。
PIT框架的核心思想是利用人类偏好数据来训练奖励模型,而无需明确的评分标准。与传统的强化学习从人类反馈(RLHF)中最大化响应质量不同,PIT旨在最大化响应与参考响应之间的质量差距,更好地与人类偏好一致。研究人员进行了一系列实验,使用真实世界和合成数据集来评估PIT与提示性方法的性能,结果显示PIT在提高响应质量方面明显优于提示性方法。
图源备注:图片由AI生成,图片授权服务商Midjourney
与依赖提示进行自我改进的Self-Refine方法相比,PIT表现更佳。此外,研究还探讨了温度设置对自我改进方法的影响,指出在低温度下PIT能够取得更好的结果,而在高温度下Self-Refine更适用。此外,研究还研究了课程强化学习和改进迭代次数的重要性,强调在实际应用中需要谨慎考虑停止条件。
综上所述,Implicit Self-Improvement PIT框架为提高大型语言模型的性能提供了一种有前途的途径。通过从人类偏好数据中学习改进目标,PIT解决了传统提示方法的限制,并展示了在各种数据集和条件下提高LLMs响应质量的有效性。