Posts
All the articles I've posted.
-
Attention Retrieves, MLP Memorizes: Disentangling Trainable Components in the Transformer
本文通过冻结Transformer组件并提出MixiT模型,揭示了自注意力机制在检索和语言建模中的输入依赖性必要性,以及MLP层在记忆中的主导作用,强调了架构异质性对任务解决的重要性。
-
TL;DR: Too Long, Do Re-weighting for Effcient LLM Reasoning Compression
本文提出TLDR方法,通过动态再加权系统1和系统2推理数据,显著压缩大型语言模型的推理输出token数量(约40%),同时在多难度数学任务上基本保持准确性。
-
Beyond Output Matching: Bidirectional Alignment for Enhanced In-Context Learning
本文提出双向对齐(BiAlign)方法,通过对齐学生模型与教师模型的令牌级输出分布和输入偏好,显著提升了学生模型的上下文学习能力,并在多种任务上取得了优于基线的结果。
-
Enabling Flexible Multi-LLM Integration for Scalable Knowledge Aggregation
本文提出了一种动态整合框架,通过自适应选择网络和动态加权融合策略从多个LLM中聚合知识,显著提升性能并减少50%的知识干扰,同时保持计算效率。
-
Memento No More: Coaching AI Agents to Master Multiple Tasks via Hints Internalization
本文提出了一种通过迭代训练和人类反馈将提示内部化到模型权重中的方法,使基于Llama-3.1-70B的AI代理在多任务基准测试ToolQA和OfficeBench上分别达到97.9%和90.3%的成功率,超越GPT-4o和DeepSeek-V3,同时显著提升推理效率。