Tag: Pre-training
All the articles with the tag "Pre-training".
-
State Space Models are Strong Text Rerankers
本文通过全面benchmark比较状态空间模型如Mamba与Transformer在文本重排序任务中的性能和效率,发现Mamba模型可实现类似性能但效率较低,并强调了未来优化方向。
-
RWKV-X: A Linear Complexity Hybrid Language Model
本文提出RWKV-X,一种线性复杂度的混合语言模型,通过结合RWKV和稀疏注意力机制,提升长上下文建模能力,同时保持高效性和短上下文性能。
-
The Sparse Frontier: Sparse Attention Trade-offs in Transformer LLMs
论文通过大规模实验分析了Transformer LLMs中稀疏注意力的效率-准确性权衡,揭示了长序列下更大稀疏模型的优势,并建立了可推广的缩放定律。
-
Massive Values in Self-Attention Modules are the Key to Contextual Knowledge Understanding
本文系统揭示了自注意力模块中大规模值在LLM上下文知识理解中的关键作用,并通过实验证明其源于旋转位置编码(RoPE),为模型优化和量化策略提供新洞见。
-
Towards Reasoning Ability of Small Language Models
本文通过系统基准测试72个SLMs,证明小型语言模型可以通过结构化训练和压缩技术实现与大型模型相当的推理能力,从而挑战了规模依赖的传统观点。