Skip to content
Go back 2402.08674 arXiv logo

The dynamic interplay between in-context and in-weight learning in humans and neural networks

Published:  at  11:20 PM
70.07 🤔

本文通过神经网络中上下文学习(ICL)与权重学习(IWL)的动态交互,统一解释了人类学习中的组合性泛化、课程效应及灵活性与保留性权衡,为认知科学双过程理论提供了新视角。

In-Context Learning, Few-Shot Learning, Meta-Learning, Human-AI Interaction, Reasoning, Continual Learning

Jacob Russin, Ellie Pavlick, Michael J. Frank

Brown University

Generated by grok-3

Background Problem

人类学习表现出显著的双重性:一方面,我们能够快速推理规则并从结构化课程中受益;另一方面,我们依赖于渐进式或试错式学习,更适合随机交错的课程。认知科学中的双过程理论通过假设两种不同的学习系统(快速规则推理系统和慢速渐进适应系统)来解释这种行为差异。然而,神经网络主要通过权重更新进行渐进学习,与后者契合,但与前者的快速规则推理能力不明显兼容。近期研究表明,元学习神经网络和大型语言模型(LLMs)能够实现上下文学习(ICL),即通过少量示例灵活掌握新任务结构。本研究旨在探索ICL与传统权重学习(IWL)之间的动态交互如何解释人类学习中的多种现象,包括课程效应、组合性泛化和灵活性与保留性之间的权衡。

Method

本文提出了一种理论框架,强调上下文学习(ICL)和权重学习(IWL)在单一神经网络中的动态交互,具体方法如下:

Experiment

实验设计基于人类认知研究中的两个任务:类别学习任务和组合任务,具体设置和结果如下:

Further Thoughts

本文提出的ICL与IWL动态交互的框架为理解人类学习的双重性提供了一个有趣的计算视角,但其理论和实验设计存在局限性,值得进一步探索。首先,元学习分布对ICL属性的影响表明,训练数据的统计特性对学习行为有深远影响,这与自然语言处理中预训练模型的行为一致,例如BERT在特定任务上的表现高度依赖于预训练语料的分布特性,未来研究可以探索更自然或多样化的任务分布如何塑造ICL能力。其次,灾难性遗忘在IWL中的作用可能被过分强调,而人类大脑通过海马体和皮层的互补学习系统(如complementary learning systems theory)缓解这一问题,未来的神经网络模型可以引入类似机制(如稀疏表示或模块化结构)以更贴近人类认知。此外,ICL在LLMs中的浮现提示我们,语言建模目标本身可能隐含元学习特性,这与近期研究(如GPT系列模型在多任务学习中的表现)相呼应,未来可以深入分析自然语言数据中的分布特性如何驱动ICL的组合性和分块优势。最后,灵活性与保留性权衡的实验虽然有趣,但注意力消融可能过于简单,未捕捉工作记忆的动态分配机制,结合认知神经科学中关于前额叶皮层(PFC)和基底节(BG)在工作记忆和规则推理中的作用,或可设计更生物学上合理的模型来模拟这一权衡。



Previous Post
VLM Q-Learning: Aligning Vision-Language Models for Interactive Decision-Making
Next Post
TeLLMe: An Energy-Efficient Ternary LLM Accelerator for Prefilling and Decoding on Edge FPGAs