Skip to content
Go back 2505.16178 arXiv logo

Understanding Fact Recall in Language Models: Why Two-Stage Training Encourages Memorization but Mixed Training Teaches Knowledge

Published:  at  11:12 AM
89.35 🤔

本文通过跨任务梯度追踪工具揭示了混合训练通过增加共享参数的数量和重要性,并在关键注意力头中集中这些参数,从而教授知识并提升语言模型的事实回忆泛化能力。

Large Language Model, Fine-tuning, Reasoning, Representation Learning, Interpretability

Ying Zhang, Benjamin Heinzerling, Dongyuan Li, Ryoma Ishigaki, Yuta Hitomi, Kentaro Inui

RIKEN Center for Advanced Intelligence Project, Tohoku University, The University of Tokyo, Tokyo Denki University, Alt Inc, MBZUAI

Generated by grok-3

Background Problem

语言模型(LMs)在事实回忆(Fact Recall)任务中,即从先前获取的知识回答问题的能力,仍然面临挑战。传统的两阶段训练策略(先训练事实存储示例,如陈述句,再训练事实回忆示例,如问答对)往往导致机械记忆(Rote Memorization),无法泛化到未见问题(准确率仅9.7%)。相比之下,混合训练(同时使用事实存储和事实回忆示例)显著提升了事实回忆的准确率(达到88.6%),但其内在机制尚不明确。本研究旨在探究为何两阶段训练导致机械记忆,而混合训练能教授知识,并分析共享参数在其中的作用。

Method

本文提出了一种名为‘跨任务梯度追踪’(Cross-Task Gradient Trace)的方法,用于识别在事实存储(BIO)和事实回忆(QA)任务中均受强烈影响的‘共享参数’(Shared Parameters)。具体步骤如下:

Experiment

实验基于合成的事实回忆数据集(包含10,000个独特个体),分为事实存储(BIO)和事实回忆(QA)两种格式,使用Llama-3.2B和Pythia-2.8B模型进行微调。实验设置包括两阶段训练(先BIO后QA)和混合训练(BIO和QA混合),并在分布外QA数据集上评估准确率。结果显示:

Further Thoughts

共享参数的概念为理解语言模型的跨任务泛化能力提供了新视角,值得进一步探索其在其他领域的应用,如多模态学习或指令微调(Instruction Tuning)。一个有趣的方向是,是否可以通过设计特定的训练策略或正则化方法,进一步增强共享参数的形成和集中,从而提升模型效率和泛化能力?此外,本文的研究方法(跨任务梯度追踪)可以与其他可解释性工具(如Logit Lens或Path Patching)结合,以更全面地揭示模型内部机制。另一个值得关注的问题是,共享参数的分布是否与模型规模或预训练数据特性相关,这可能为设计更高效的微调策略提供启示。



Previous Post
MELON: Provable Indirect Prompt Injection Defense via Masked Re-execution and Tool Comparison
Next Post
MoM: Linear Sequence Modeling with Mixture-of-Memories