本文提出奖励推理模型(RRMs),通过链式推理过程在生成奖励前自适应利用测试时计算资源,在多个奖励建模基准和实际应用中显著提升性能,尤其在复杂推理任务上表现优异。
Reinforcement Learning, Large Language Model, Reasoning, Alignment, Test Time, Efficiency
Jiaxin Guo, Zewen Chi, Li Dong, Qingxiu Dong, Xun Wu, Shaohan Huang, Furu Wei
Microsoft Research, Tsinghua University, Peking University
Generated by grok-3
Background Problem
大型语言模型(LLMs)的后训练阶段越来越强调与人类偏好对齐和增强特定能力(如推理),而奖励模型在这一过程中扮演了关键角色,用于指导模型输出符合人类期望。然而,现有奖励模型在测试时计算资源的分配上缺乏灵活性,无法根据查询复杂性自适应地调整计算资源,尤其是在处理需要多步推理或细致分析的复杂任务时表现受限。为解决这一问题,本文提出了奖励推理模型(RRMs),旨在通过显式推理过程提升奖励评估的准确性和适应性。
Method
奖励推理模型(RRMs)的核心思想是将奖励建模视为推理任务,在生成最终奖励前执行链式推理过程(Chain-of-Thought Reasoning),以便在复杂查询上自适应地利用更多测试时计算资源。具体实现步骤如下:
- 输入表示:RRMs 基于 Transformer 解码器架构(采用 Qwen2 模型),将奖励建模任务转化为文本补全问题,输入为查询和两个候选响应,输出为包含推理过程和最终判断的文本。系统提示词指导模型按多个评估标准(如指令遵循性、有用性、准确性等)进行系统性分析,并避免常见偏见。
- 训练框架:提出了一种名为‘奖励推理强化学习’的训练框架,无需显式推理轨迹作为训练数据,而是通过规则 기반的奖励环境鼓励模型自进化推理能力。奖励函数简单定义为选择正确响应得 +1 分,否则得 -1 分,使用组相对策略优化(GRPO)进行训练。
- 多响应奖励策略:虽然输入限于两个候选响应,但 RRMs 通过 ELO 评分系统(基于循环赛)和淘汰赛制(Knockout Tournament)处理多个候选响应的情况,并结合多数投票机制进一步利用测试时计算资源。
批评与思考:虽然链式推理的引入是一个创新点,但论文未充分讨论推理过程可能引入的额外噪声或偏见,尤其是在缺乏显式监督数据的情况下,自进化推理能力可能导致不可预测的推理模式。此外,奖励函数设计过于简单,可能无法捕捉复杂任务中奖励评估的细微差别,限制了模型在主观或模糊场景下的表现。
Experiment
实验设计旨在评估 RRMs 在奖励建模基准和实际应用中的性能,具体包括以下方面:
- 数据集与基准:训练数据包括 Skywork-Reward、Tülu 3 提示数据集及合成偏好对(共约 420K 偏好对)。评估基准包括 RewardBench(涵盖聊天、推理、安全等领域)和 PandaLM Test(人类标注的细粒度偏好数据集),以及 Preference Proxy Evaluations (PPE) 的子集(MMLU-Pro, MATH, GPQA)。
- 实验设置:对比了多种基线模型,包括 Skywork-Reward、GPT-4o、Claude 3.5 Sonnet、JudgeLM 和 DeepSeek-GRM 等,评估指标为准确率和 F1 分数。实验还包括奖励引导的最佳-N 推理(Best-of-N Inference)、后训练(使用 RL 和 DPO)以及测试时计算资源扩展(并行与顺序扩展)的效果。
- 结果分析:RRMs 在 RewardBench 和 PandaLM Test 上表现出色,RRM-32B 在推理类别中准确率高达 98.6%,整体性能优于大多数基线,尤其在复杂推理任务上通过推理过程显著提升性能。在最佳-N 推理中,RRM-32B(voting@5)在 PPE 数据集上达到 79.7% 的整体准确率,超越所有基线。后训练实验显示,使用 RRM 奖励信号的模型在 Arena-Hard 基准上取得最高分(55.4)。测试时计算扩展实验表明,增加推理时间或多数投票次数可进一步提升性能。
- 评价与批评:实验设置较为全面,覆盖了多个领域和任务类型,数据集选择也具有代表性。然而,基线模型的选择未完全覆盖最新的生成式奖励模型或其他推理增强方法,可能导致对比不够充分。此外,虽然结果显示 RRMs 性能优越,但部分改进(如多数投票带来的提升)可能更多依赖计算资源而非方法创新,论文未深入分析计算成本与性能收益的权衡,这在实际应用中可能是一个重要限制。
Further Thoughts
RRMs 的提出为奖励模型引入了推理过程以提升复杂任务性能,这与当前大型语言模型中推理增强(如 Chain-of-Thought Prompting)的研究趋势相呼应。然而,这种方法是否能在更广泛的领域(如多模态任务)中保持有效性值得进一步探索。例如,结合视觉基础模型(Vision Foundation Model)是否能通过类似推理过程提升多模态奖励评估的准确性?此外,RRMs 的自适应计算资源分配机制启发我们思考,如何在资源受限的边缘设备上实现类似的自适应性,可能需要结合参数高效微调(Parameter-Efficient Fine-Tuning)或模型剪枝技术来降低计算成本。同时,论文中未提及推理过程可能带来的延迟对实时应用(如在线聊天系统)的潜在影响,这是一个值得深入研究的方向。最后,RRMs 的奖励函数设计过于简单,未来可以探索结合人类反馈的强化学习(RLHF)与更复杂的奖励设计(如基于多维度评估的加权奖励),以进一步提升模型在主观任务上的表现。