Tag: Generative AI
All the articles with the tag "Generative AI".
-
Graceful Forgetting in Generative Language Models
本文提出Learning With Forgetting (LWF)框架,通过自生成知识、Fisher信息矩阵加权的遗忘置信度计算和周期性遗忘策略,在生成式语言模型的微调中实现优雅遗忘,实验表明其在大多数领域特定问答任务上显著提升性能。
-
It Takes a Good Model to Train a Good Model: Generalized Gaussian Priors for Optimized LLMs
本文提出基于广义高斯分布(GGD)的LLM优化框架,通过GG初始化、DeepShape后处理和RF8浮点格式,从初始化到部署全流程提升模型压缩率、精度和硬件效率,实验显示显著的压缩率提升和可控的精度损失。
-
Scaling Reasoning without Attention
本文提出 PROMPTCOT-MAMBA,一种基于 Mamba-2 状态空间模型的无注意力语言模型,通过两阶段课程微调和 PROMPTCOT 合成范式,在数学和代码推理任务上超越同规模甚至更大规模的 Transformer 模型,同时实现固定内存和高效推理。
-
RM-R1: Reward Modeling as Reasoning
本文提出RM-R1,一种通过将奖励建模转化为推理任务并结合蒸馏和强化学习训练的推理奖励模型(REASRMS),在多个基准测试上取得了最先进性能,同时显著提升了可解释性。
-
Fine-tuning Quantized Neural Networks with Zeroth-order Optimization
本文提出Quantized Zeroth-order Optimization (QZO),通过扰动量化尺度参数并结合方向导数裁剪,在量化神经网络上实现零阶优化微调,将内存使用减少18倍以上,并在LLMs和Stable Diffusion上展示出显著的内存效率和一定的性能提升。