Skip to content
Go back 2505.22358 arXiv logo

Budget-Adaptive Adapter Tuning in Orthogonal Subspaces for Continual Learning in LLMs

Published:  at  11:26 AM
90.65 🤔

本文提出OA-Adapter,一种用于大型语言模型持续学习的新型参数高效方法,通过单阶段端到端训练结合动态预算分配与正交子空间学习,在标准基准上实现更高准确率并减少58.5%的参数使用。

Continual Learning, Parameter-Efficient Fine-Tuning, Large Language Model, Orthogonal Subspace, Dynamic Budget Allocation

Zhiyi Wan, Wanrou Du, Liang Li, Miao Pan, Xiaoqi Qin

Beijing University of Posts and Telecommunications, Pengcheng Laboratory, University of Houston

Generated by grok-3

Background Problem

大型语言模型(LLMs)在持续学习(Continual Learning, CL)场景中常常面临灾难性遗忘问题,即在学习新任务时,之前任务的性能会显著下降。传统的参数高效微调(PEFT)方法(如Adapter和LoRA)虽然降低了单任务微调的计算成本,但在顺序到达的任务中表现不佳。现有的CL方法多在共享参数空间内操作,导致任务间干扰,尤其是在任务分布差异较大的LLM场景中更为严重。近期正交子空间学习方法通过限制任务更新到互斥参数子空间减少了干扰,但通常采用固定预算分配,忽略了任务复杂度和层级需求的异质性,导致参数利用效率低下。此外,现有预算自适应方法多采用多阶段优化,存在目标与预算分配不对齐的问题,增加了计算复杂性。本文提出OA-Adapter,旨在通过单阶段端到端训练,统一动态预算分配与正交子空间学习,解决上述问题。

Method

OA-Adapter是一种用于LLM持续学习的新型参数高效方法,其核心思想是将动态预算分配与正交子空间学习结合,通过单阶段端到端训练同时优化参数效率和知识保留。具体实现如下:

Experiment

实验在两个持续学习基准数据集上进行评估:标准CL基准(5个文本分类数据集:AG News, Amazon Reviews等)和大规模任务基准(15个数据集,包括GLUE和SuperGLUE的部分任务)。使用T5-large模型,与多种基线方法(如SeqFT, EWC, O-LoRA, ProgPrompt等)比较,采用平均准确率作为主要指标,报告了三种任务顺序的平均结果。

Further Thoughts

OA-Adapter提出了一种有趣的思路,将动态预算分配与正交子空间学习结合,为LLM的持续学习提供了一个高效的解决方案。然而,我认为其正交约束可能在任务分布高度异质或任务数量极多时成为性能瓶颈,未来可以探索更灵活的子空间划分策略,例如基于任务相似性的聚类子空间分配。此外,动态阈值机制的收敛性和稳定性分析不足,可能会在实际部署中遇到问题,建议后续工作结合优化理论进一步验证其鲁棒性。另一个值得思考的方向是与联邦学习(Federated Learning)的结合,OA-Adapter的参数效率优势可能在分布式环境中进一步放大,尤其是在资源受限的边缘设备上进行持续学习时。最后,作者提到的任务性能恢复现象(类似于人类记忆的再激活)是一个有趣的观察,未来可以深入研究这种潜在的知识保留机制,或许能启发新的持续学习策略。



Previous Post
One Task Vector is not Enough: A Large-Scale Study for In-Context Learning
Next Post
Contrastive Learning for Task-Independent SpeechLLM-Pretraining