Tag: Large Language Model
All the articles with the tag "Large Language Model".
-   
AdaptThink: Reasoning Models Can Learn When to Think
本文提出 *AdaptThink*,一种基于强化学习的算法,通过自适应选择 *Thinking* 或 *NoThinking* 模式显著降低推理模型的响应长度(平均减少 40-53%)并提升准确率(平均提升 2.3-2.4%),在数学任务上展现了效率与性能的良好平衡。
 -   
Can Past Experience Accelerate LLM Reasoning?
本文提出SpeedupLLM框架,通过自适应计算分配和记忆机制实现LLM推理加速,实验表明计算成本最高可减少56%,尤其在高相似度问题上效果显著。
 -   
Activation-Guided Consensus Merging for Large Language Models
本文提出Activation-Guided Consensus Merging (ACM),通过基于激活值互信息(MI)的层级权重系数调整,实现大型语言模型在Long-to-Short推理任务中的高效合并,显著减少输出冗余并提升推理精度,尤其在小规模模型上效果明显。
 -   
Budget-Adaptive Adapter Tuning in Orthogonal Subspaces for Continual Learning in LLMs
本文提出OA-Adapter,一种用于大型语言模型持续学习的新型参数高效方法,通过单阶段端到端训练结合动态预算分配与正交子空间学习,在标准基准上实现更高准确率并减少58.5%的参数使用。
 -   
Beyond Single-Task: Robust Multi-Task Length Generalization for LLMs
本文提出Meta-RFFT框架,通过多任务规则跟随预训练和少量下游适应,显著提升了大型语言模型在未见任务上的长度泛化能力,32B模型在长度30的加法任务上达到98%准确率,超越现有长链推理模型。