Tag: Low-Rank Adaptation
All the articles with the tag "Low-Rank Adaptation".
-
Two Is Better Than One: Rotations Scale LoRAs
本文提出 *RadarGate*,一种基于几何的门控方法,通过旋转和拉伸操作增强 LoRA-MoE 的表达能力,在拟合、泛化和可扩展性方面显著优于现有方法,实验结果在 6 个基准数据集的 21 个任务上得到验证。
-
MoRE: A Mixture of Low-Rank Experts for Adaptive Multi-Task Learning
本文提出MoRE方法,通过将LoRA的不同秩视为专家并设计自适应秩选择器,显著提升了大型语言模型在多任务场景中的微调效率和性能,同时保持较低的参数量。
-
Unraveling LoRA Interference: Orthogonal Subspaces for Robust Model Merging
本文提出OSRM方法,通过在微调前约束LoRA子空间以减少任务间干扰,显著提升了多个语言模型在八个GLUE数据集上的合并性能,同时保持单任务准确性。
-
Initialization using Update Approximation is a Silver Bullet for Extremely Efficient Low-Rank Fine-Tuning
本文提出LoRA-SB方法,通过基于全参数微调第一步梯度近似的初始化策略优化低秩微调,在参数量减少27-90倍的情况下,显著超越LoRA-XS并接近全参数微调性能。
-
MELoRA: Mini-Ensemble Low-Rank Adapters for Parameter-Efficient Fine-Tuning
本文提出MELoRA,通过并行堆叠多个小型LoRA模块实现更高的等效秩,以更少的参数在自然语言理解和指令跟随任务上显著优于LoRA。