Tag: Parameter-Efficient Fine-Tuning
All the articles with the tag "Parameter-Efficient Fine-Tuning".
-
Replay to Remember: Retaining Domain Knowledge in Streaming Language Models
本文通过结合LoRA和轻量级重放机制的方法,在流式学习条件下帮助大型语言模型减轻灾难性遗忘,同时实现了实时域适应。
-
Pushing the boundary on Natural Language Inference
本文提出使用Group Relative Policy Optimization结合Chain-of-Thought学习的方法提升自然语言推理任务的性能,无需标注推理路径,通过参数高效微调在对抗性基准上实现最先进结果。
-
PointLoRA: Low-Rank Adaptation with Token Selection for Point Cloud Learning
本文提出PointLoRA方法,通过低秩适配和多尺度令牌选择,实现点云模型的参数高效微调,显著减少可训练参数同时在多个数据集上达到竞争性性能。
-
Reinforcement Learning for LLM Reasoning Under Memory Constraints
本文提出了S-GRPO和T-SPMO两种内存高效、无批评者的强化学习方法,结合LoRA微调,在有限硬件资源下显著提升了大型语言模型在数学推理任务上的性能,其中T-SPMO在需要细粒度信用分配的任务上表现尤为突出。
-
LIFT: Improving Long Context Understanding of Large Language Models through Long Input Fine-Tuning
本文提出LIFT框架,通过长输入微调和Gated Memory适配器提升短上下文LLMs的长上下文理解能力,实验显示显著性能改进。