Skip to content
Go back 2505.00009 arXiv logo

Efficient Knowledge Transfer in Multi-Task Learning through Task-Adaptive Low-Rank Representation

Published:  at  04:32 PM
87.85 🤔

本文提出 TA-LoRA 方法,通过任务自适应低秩表示和快速-缓慢权重机制提升多任务学习的知识转移效率,实现对未见任务的优异泛化性能,同时保持高参数效率。

Multi-Task Learning, Parameter-Efficient Fine-Tuning, Low-Rank Adaptation, Prompt Engineering, Knowledge Transfer, Task Heterogeneity

Xiao Zhang, Kangsheng Wang, Tianyu Hu, Huimin Ma

University of Science and Technology Beijing

Generated by grok-3-mini-latest

Background Problem

预训练语言模型(PLMs)在捕捉一般知识方面表现出色,但面对真实世界应用中的新任务时表现不佳,训练单独的模型成本高且无法有效利用跨任务知识。多任务学习(MTL)通过从源任务转移共享知识来提升对目标任务的泛化能力,而提示调优(PT)作为一种参数高效的细调方法,通过引入可学习的连续提示向量来编码任务特定知识,但由于其表示能力的限制,难以有效捕捉任务异质性(即任务间的差异),从而导致共享知识和任务特定知识混淆,阻碍了对未见任务的泛化。

Method

Experiment

Further Thoughts

这项工作展示了低秩表示在多任务学习中的潜力,可能扩展到其他领域如计算机视觉的多任务细调中,与 Adapter 方法结合可能进一步提升泛化能力;此外,结合参考 [14] 和 [15],未来可以探索低秩结构与注意力机制的更深融合,以减少对初始化敏感性和提升跨模态任务的鲁棒性。



Previous Post
RAGEN: Understanding Self-Evolution in LLM Agents via Multi-Turn Reinforcement Learning
Next Post
EMORL: Ensemble Multi-Objective Reinforcement Learning for Efficient and Flexible LLM Fine-Tuning