Tag: Large Language Model
All the articles with the tag "Large Language Model".
-
PASER: Post-Training Data Selection for Efficient Pruned Large Language Model Recovery
PASER提出了一种针对剪枝后大语言模型能力恢复的后训练数据选择方法,通过语义聚类、能力退化感知选择和负面效应缓解,在有限数据预算下显著提升恢复性能并降低计算成本。
-
SoftCoT++: Test-Time Scaling with Soft Chain-of-Thought Reasoning
SoftCoT++ 通过在连续潜在空间中引入多样化初始令牌和对比学习实现测试时扩展,显著提升了大型语言模型在多个推理任务上的性能,并与传统离散空间扩展方法展现出协同效应。
-
Diverse, not Short: A Length-Controlled Self-Learning Framework for Improving Response Diversity of Language Models
本文提出Diverse-NS框架,通过长度控制的自学习和偏好优化显著提升了大型语言模型在创造性任务中的响应多样性,同时在大多数情况下保持了输出质量,并验证了小模型作为大模型多样性教师的可行性。
-
Incentivizing Strong Reasoning from Weak Supervision
本文提出弱到强推理(W2SR)范式,通过显著较弱教师模型生成的结构化链式思维轨迹对强学生模型进行监督微调,以低成本方式显著提升其推理能力,接近甚至超越昂贵的强化学习效果。
-
AdaReasoner: Adaptive Reasoning Enables More Flexible Thinking
AdaReasoner通过强化学习框架自适应调整大型语言模型的推理配置(生成温度、推理步骤数和指令格式),在多样化任务上显著优于固定配置的基线方法,展现了快速收敛和分布外鲁棒性。