Skip to content
Go back 2505.18502 arXiv logo

Knowledge Grafting of Large Language Models

Published:  at  11:21 AM
88.92 🤔

GraftLLM提出了一种通过模块感知压缩生成SkillPack的方法,实现大型语言模型间高效跨能力转移、知识融合和无遗忘持续学习,并在多个基准测试中显著优于现有方法。

Large Language Model, Continual Learning, Parameter-Efficient Fine-Tuning, Knowledge Fusion, Model Compression

Guodong Du, Xuanning Zhou, Junlin Li, Zhuo Li, Zesheng Shi, Wanyu Lin, Ho-Kin Tang, Xiucheng Li, Fangming Liu, Wenya Wang, Min Zhang, Jing Li

Harbin Institute of Technology, Shenzhen, China, The Hong Kong Polytechnic University, Nanyang Technological University

Generated by grok-3

Background Problem

大型语言模型(LLMs)的跨能力转移是当前研究的一个关键挑战,涉及多任务融合、模型压缩和持续学习等应用场景。现有方法(如知识蒸馏和参数高效微调PEFT)在处理大型异构模型时存在局限性:知识蒸馏常忽略目标模型的固有能力,全参数微调易导致灾难性遗忘,而PEFT方法(如LoRA)在从源模型获取任务知识方面表现不佳。为解决这些问题,论文提出了GraftLLM,旨在通过将源模型能力以目标模型+SkillPack的形式存储,实现高效的知识转移、融合和无遗忘持续学习。

Method

GraftLLM的核心思想是将源模型(Msrc)的能力通过跨能力转移整合到目标模型(Mtgt),并将任务特定的参数更新压缩为轻量化的SkillPack。具体步骤如下:

Experiment

实验从三个方面验证了GraftLLM的有效性:

Further Thoughts

GraftLLM提供了一个有趣的视角,通过SkillPack实现知识的模块化存储和转移,但其推理效率问题和对超参数的依赖值得进一步探索。未来的改进方向可以包括:1)结合自动化超参数优化技术(如贝叶斯优化)来动态选择压缩策略,减少人工干预;2)探索与MoE(Mixture of Experts)架构的结合,通过层级自适应路由机制提升推理效率;3)与其他领域的研究(如联邦学习)联系起来,SkillPack可以作为一种隐私保护的知识载体,用于跨机构模型能力的共享,而无需暴露完整模型参数。此外,考虑到其对SFT/DPO质量的依赖,是否可以通过自监督学习或合成数据生成进一步降低对高质量训练数据的依赖,也是一个值得研究的课题。



Previous Post
SLearnLLM: A Self-Learning Framework for Efficient Domain-Specific Adaptation of Large Language Models
Next Post
Activation Control for Efficiently Eliciting Long Chain-of-thought Ability of Language Models