Skip to content
Go back 2505.22662 arXiv logo

AutoL2S: Auto Long-Short Reasoning for Efficient Large Language Models

Published:  at  11:25 AM
85.93 🤔

本文提出 AutoL2S 框架,通过标注长短推理路径和 标记训练 LLMs,使其根据问题复杂性动态选择推理长度,实验显示推理长度压缩高达57%,性能基本保持。

Large Language Model, Reasoning, Efficiency, Supervised Learning, Data Augmentation

Feng Luo, Yu-Neng Chuang, Guanchu Wang, Hoang Anh Duy Le, Shaochen Zhong, Hongyi Liu, Jiayi Yuan, Yang Sui, Vladimir Braverman, Vipin Chaudhary, Xia Hu

Rice University, University of North Carolina at Charlotte, Johns Hopkins University, Case Western Reserve University

Generated by grok-3

Background Problem

大型语言模型(LLMs)在复杂推理任务中表现出色,但常因过思考问题(Overthinking)而生成冗长的链式推理(CoT)路径,尤其是在处理简单问题时,导致推理成本和延迟显著增加。现有方法如知识蒸馏或手动选择长短推理路径,未能根据问题复杂性动态调整推理长度,缺乏灵活性。本文提出 AutoL2S 框架,旨在解决这一问题,通过让模型自主决定推理路径长度,实现高效推理,同时保持性能。

Method

AutoL2S 是一种动态且与模型无关的框架,旨在让 LLMs 根据问题复杂性自动选择长或短推理路径。其核心思想和实现步骤如下:

关键问题与批评:数据构建中对 EASY 问题的定义和拒绝采样的应用可能引入主观性,缺乏明确标准;同时,训练数据中长短路径的并存可能导致模型在推理时混淆,尤其是在边界复杂性问题上。此外, 标记的引入虽然创新,但其泛化能力未被充分验证,可能在未见过的问题类型上失效。

Experiment

实验在 Bespoke-Stratos-17k 数据集上训练 AutoL2S,并在四个推理数据集(Math500, GPQA, GSM8K, Olympiad)上评估,基于两个非推理基础模型(Qwen2.5-3B/7B-Instruct)。

Further Thoughts

AutoL2S 的方法在提高推理效率方面展现了潜力,但其依赖于预定义的 标记和特定数据集的标注策略,可能限制其在更广泛场景中的应用。进一步思考,是否可以通过在线学习或元学习动态调整 标记的判定标准,使模型自适应地处理不同领域的问题?此外,结合其他效率优化技术(如模型剪枝或量化)可能进一步提升 AutoL2S 的实用性。另一个值得探索的方向是与多模态推理任务的结合,测试其在处理文本以外的数据(如图像或表格)时的表现,这可能揭示框架在跨领域推理中的局限性或潜力。与此同时,论文中提到的长短推理路径的注意力分离机制(Attention Map 分析)提示我们,是否可以通过设计更精细的注意力机制来增强模型对推理路径长度的控制?这些方向值得后续研究深入探讨。



Previous Post
It Takes a Good Model to Train a Good Model: Generalized Gaussian Priors for Optimized LLMs
Next Post
Scaling Reasoning without Attention