Skip to content
Go back 2505.22120 arXiv logo

LoKI: Low-damage Knowledge Implanting of Large Language Models

Published:  at  11:23 AM
87.82 🤔

本文提出LoKI,一种参数高效微调框架,通过分析Transformer FFN层的知识存储机制和层平衡参数选择策略,在下游任务适应和预训练知识保留之间实现了竞争性平衡。

Large Language Model, Parameter-Efficient Fine-Tuning, Catastrophic Forgetting, Transformer, Knowledge Representation

Runyu Wang, Peng Ping, Zhengyu Guo, Xiaoye Zhang, Quan Shi, Liting Zhou, Tianbo Ji

Nantong University, South China University of Technology, China Southern Power Grid Company Limited, Dublin City University

Generated by grok-3

Background Problem

大型语言模型(LLMs)在预训练后通过微调适应下游任务时,常常面临灾难性遗忘(CF)问题,即在学习新任务时丢失预训练中获得的关键知识。传统的参数高效微调(PEFT)方法如LoRA虽然降低了计算成本,但仍难以在任务适应和通用能力保留之间取得平衡。本文提出了一种新的PEFT框架LoKI,旨在通过对Transformer架构中知识存储机制的理解,解决CF问题,同时保持对下游任务的竞争力。

Method

LoKI(Low-damage Knowledge Implanting)是一个三阶段的PEFT框架,核心思想是基于Transformer中FFN层作为知识存储中心的机制理解,通过选择性更新低影响权重来植入任务特定知识,同时保护预训练能力。其主要步骤如下:

Experiment

实验在两个实际任务上评估LoKI的效果:LB Reranker数据集(用于信息检索)和ToolACE Function-Calling数据集(用于函数调用能力)。

Further Thoughts

LoKI提供了一个有趣的视角,将Transformer的知识存储机制与PEFT结合,但其KVA技术的高计算成本可能限制其在大规模模型或资源受限环境中的应用。未来可以探索更高效的知识归因方法,例如基于稀疏激活或近似梯度的技术。此外,层平衡策略虽然保护了知识层次,但是否会因均匀分配而忽略某些层在特定任务中的关键作用,值得进一步研究。另一个思考方向是LoKI与其他PEFT方法的协同潜力,例如与LoRA结合时参数量显著减少,但性能有所下降,这提示我们可能需要设计更精细的混合策略来平衡效率和效果。跨领域对比也可能有启发,例如在计算机视觉领域,类似的知识保护策略是否能应用于Vision Transformer的微调?这些问题值得后续探索。



Previous Post
Does quantization affect models' performance on long-context tasks?
Next Post
Large Language Models are Locally Linear Mappings