Skip to content
Go back 2505.18752 arXiv logo

Unifying Attention Heads and Task Vectors via Hidden State Geometry in In-Context Learning

Published:  at  11:19 AM
86.54 🤔

本文通过隐藏状态的几何特性(可分离性和对齐性)提出统一框架,揭示上下文学习(ICL)在分类任务中的两阶段机制——早期层通过PTH增强可分离性,后期层通过IH优化对齐性,并解释了任务向量的有效性。

In-Context Learning, Large Language Model, Classification, Representation Learning, Transformer

Haolin Yang, Hakaze Cho, Yiqiao Zhong, Naoya Inoue

University of Chicago, JAIST, University of Wisconsin - Madison, RIKEN

Generated by grok-3

Background Problem

上下文学习(ICL)是大型语言模型(LLMs)的一项显著能力,允许模型通过输入中的演示示例快速适应下游任务,而无需额外训练。然而,ICL的内部机制尚不明确,现有研究分别聚焦于特定的注意力头(如归纳头IH和前一词头PTH)或任务向量,缺乏一个统一的框架来解释这些组件如何通过隐藏状态的层级演变影响模型输出。本文试图解决这一问题,提出通过隐藏状态的几何特性(可分离性和对齐性)来统一理解ICL在分类任务中的机制,揭示其性能提升的关键因素。

Method

本文提出了一种基于隐藏状态几何特性的框架,用于解释上下文学习(ICL)在分类任务中的机制:

Experiment

实验在多个大型语言模型(如Llama2-70B、Llama3-8B等)和分类数据集(如SST-2、SNLI等)上进行,设置包括8-shot ICL和零样本对比,具体如下:

Further Thoughts

本文提出的隐藏状态几何框架为理解ICL提供了一个新颖视角,但其局限性在于聚焦分类任务,未能充分探讨生成任务或多token输出场景下的适用性。进一步思考,这种两阶段机制是否可能与模型训练过程中的注意力头形成过程相关?例如,PTH和IH的出现是否与预训练阶段的数据分布或任务设计有关?此外,论文中提到的后期层语义过滤机制可能在多模态模型或跨领域任务中表现不同,值得探索其在视觉-语言模型中的表现。另一个有趣的方向是,是否可以通过干预隐藏状态的对齐性(例如通过任务向量或注意力头调整)来提升ICL在零样本设置下的性能?这可能为低资源场景下的模型适应提供新思路。



Previous Post
Universal Reasoner: A Single, Composable Plug-and-Play Reasoner for Frozen LLMs
Next Post
From Compression to Expansion: A Layerwise Analysis of In-Context Learning