Skip to content
Go back 2505.17697 arXiv logo

Activation Control for Efficiently Eliciting Long Chain-of-thought Ability of Language Models

Published:  at  11:26 AM
88.80 🤔

本文通过分析大型语言模型中长链式思维能力的激活模式,提出了一种训练无关的激活控制方法(EELo-CoT)和参数高效微调策略,在推理时动态调整激活值以显著提升自反思率和准确率。

Large Language Model, Reasoning, Parameter-Efficient Fine-Tuning, Inference Optimization, Activation Dynamics

Zekai Zhao, Qi Liu, Kun Zhou, Zihan Liu, Yifei Shao, Zhiting Hu, Biwei Huang

University of California, San Diego

Generated by grok-3

Background Problem

大型语言模型(LLMs)在推理任务中表现出色,但激发其长链式思维(Long CoT)能力通常需要昂贵的强化学习(RL)或在高质量蒸馏数据上的监督微调(SFT)。这种方式面临数据收集困难和训练过程复杂的挑战。论文试图解决这一问题,探索长CoT能力的内部机制,提出无需训练即可通过激活值控制来激发该能力,从而提升模型在复杂推理任务(如数学竞赛问题)中的表现,特别是在输出长度、自反思率和准确率方面的改进。

Method

论文提出了两种方法来激发长CoT能力:

批判性思考:激活控制方法的理论基础较为薄弱,缺乏对激活值与长CoT能力因果关系的深入探讨;‘wait’标记的使用虽然有效,但过于依赖特定标记可能导致方法在不同任务或模型上的泛化性不足。此外,解析函数的设计基于观察,未提供充分的理论支持,可能存在过拟合特定模型或数据集的风险。

Experiment

论文在多个复杂推理任务上验证了方法的有效性:

Further Thoughts

论文提出的激活控制方法提供了一个有趣的视角,即通过干预模型内部激活值来激发特定能力,而无需大规模训练。这种思路可能不仅适用于长CoT能力,还可以扩展到其他领域,如情感分析中的语气调整或生成任务中的风格控制。然而,方法对特定标记(如‘wait’)的依赖提示我们需要探索更通用的触发机制,例如基于上下文语义的动态干预,而非预定义标记。此外,激活值与模型能力的因果关系仍需更深入的研究,可以结合神经科学中的神经元激活研究方法,探索LLM中类似‘神经元’的功能特异性。另一个值得思考的方向是,这种激活控制方法是否能与现有的测试时搜索策略(如Tree-of-Thought)结合,进一步提升复杂推理任务的表现?如果能找到激活值与搜索策略之间的协同机制,可能为LLM的推理能力带来更大的突破。最后,论文中提到的激活值在过度后训练模型中变得‘死寂’的现象,提示我们关注后训练(如指令微调)对模型潜在能力的抑制作用,这可能是未来研究的一个重要方向。



Previous Post
Knowledge Grafting of Large Language Models
Next Post
ASURA-FDPS-ML: Star-by-star Galaxy Simulations Accelerated by Surrogate Modeling for Supernova Feedback