Skip to content
Go back 2502.07365 arXiv logo

LongReD: Mitigating Short-Text Degradation of Long-Context Large Language Models via Restoration Distillation

Published:  at  11:52 AM
90.28 🤔

本文提出LongReD方法,通过长文本训练、短文本蒸馏和短到长蒸馏的多目标训练策略,有效缓解了长上下文大语言模型在短文本任务上的性能下降,同时保持或提升长文本处理能力。

Large Language Model, Pre-training, Long Context, Knowledge Distillation, Continual Learning

Zican Dong, Junyi Li, Jinhao Jiang, Mingyu Xu, Wayne Xin Zhao, Bingning Wang, Weipeng Chen

中国人民大学高瓴人工智能学院, 新加坡国立大学计算机科学系, 百川智能

Generated by grok-3

Background Problem

大语言模型(LLMs)通过扩展位置编码和轻量级持续预训练实现了更长的上下文窗口,但这往往导致短文本任务性能下降。论文深入分析了这一问题的原因,指出主要有两个因素:分布漂移(Distribution Drift),即扩展后模型的隐藏状态和注意力分布与原始模型产生差异;以及灾难性遗忘(Catastrophic Forgetting),即在长文本持续预训练过程中对短文本能力的遗忘。解决这一问题对于在扩展长上下文能力的同时保留模型对短文本任务的强大性能至关重要。

Method

论文提出了长上下文预训练与恢复蒸馏(LongReD)方法,旨在通过减少分布漂移和缓解灾难性遗忘来减轻短文本性能下降。其核心思想是通过多目标训练策略,使扩展模型在长文本处理能力提升的同时,尽可能模拟原始模型在短文本上的分布。具体方法包括以下三个训练目标:

Experiment

实验在Llama-3-8B和Mistral-7B-v0.3模型上进行,目标是将上下文窗口从8K扩展到32K和128K。使用的数据集包括SlimPajama(长文本和短到长数据集)和高质量短文本数据集(长度1K),总训练token数为10亿。评估涵盖17个短文本基准(包括通用、编码、数学、阅读理解和常识问答)和RULER长文本基准。结果显示,LongReD在短文本任务上显著优于基线方法(如仅长文本持续预训练和混合长度预训练),例如在Llama-3-8B扩展到32K时,短文本性能保留率高达99.4%,而基线仅为92.5%。在长文本任务上,LongReD与基线表现相当或略优,尤其在Mistral-7B-v0.3上表现更佳。消融研究表明,短文本蒸馏和短到长蒸馏对短文本和长文本性能均有贡献,但超参数调整对结果影响较大。实验设置较为全面,覆盖了不同位置编码扩展方法(ABF和PI)和目标窗口大小,但存在以下问题:模型选择较少,缺乏对更大规模模型或不同架构的验证;长文本评估仅依赖RULER,未能覆盖更多长上下文任务类型;此外,训练成本和计算开销未被讨论,这可能限制方法的实际应用。

Further Thoughts

LongReD方法提供了一个有趣的视角,即通过蒸馏原始模型的分布来缓解长上下文扩展带来的短文本性能下降,这与知识蒸馏在模型压缩中的应用有异曲同工之妙。然而,我认为其方法可能过于依赖于原始模型的分布假设,而未充分考虑长上下文训练可能带来的新能力或分布特性。未来的研究可以探索如何在长文本训练中直接融入原始模型的知识,而不仅仅是分别处理长短文本。此外,论文未讨论的方法计算成本是一个重要问题,尤其是在工业应用中,训练10亿token可能只是起点,是否能在更大规模训练(如100亿token)中保持性能稳定性值得进一步研究。另一个有趣的方向是结合参数高效微调技术(如LoRA),是否能进一步降低训练开销并提升分布恢复效果。最后,LongReD的思路可能不仅适用于上下文窗口扩展,也可以应用于其他持续学习场景,如模型从通用任务到领域特定任务的迁移,这是一个值得探索的跨领域应用方向。



Previous Post
A Training-Free Length Extrapolation Approach for LLMs: Greedy Attention Logit Interpolation (GALI)
Next Post
P$^2$ Law: Scaling Law for Post-Training After Model Pruning