Posts
All the articles I've posted.
-   
LoRASuite: Efficient LoRA Adaptation Across Large Language Model Upgrades
本文提出LoRASuite,一种针对大型语言模型升级的模块化方法,通过转换矩阵、层映射和注意力头映射高效适配LoRA权重,并在数学与常识任务上显著优于小规模LoRA微调,甚至在某些场景下超越全规模重新训练,同时大幅降低内存和时间消耗。
 -   
Decom-Renorm-Merge: Model Merging on the Right Space Improves Multitasking
本文提出Decom-Renorm-Merge(DRM)方法,通过奇异值分解和重归一化构建共享表示空间以合并多任务模型权重,在视觉和语言任务上显著优于现有方法。
 -   
One-shot Entropy Minimization
本文提出一-shot熵最小化(EM)方法,通过仅使用单个无标签数据和10步优化即可显著提升大型语言模型在数学推理任务上的性能,媲美或超越传统强化学习方法。
 -   
SeMe: Training-Free Language Model Merging via Semantic Alignment
本文提出SeMe,一种基于语义对齐的无训练、无数据语言模型合并方法,通过潜在空间的语义分解和变换实现参数融合,旨在保留模型行为并稳定内部知识,但缺乏充分的实验验证。
 -   
Parallel Scaling Law for Language Models
本文提出并行扩展(PARSCALE)方法,通过增加训练和推理时的并行计算流(P)来提升语言模型能力,理论和实验表明P流相当于参数扩展O(log P),并在低资源场景下展现出更高的推理效率。