Skip to content
Go back 2505.00147 arXiv logo

AdaptMI: Adaptive Skill-based In-context Math Instruction for Small Language Models

Published:  at  04:32 PM
80.86 🤔

本文提出AdaptMI和AdaptMI+自适应方法,通过基于奖励模型检测问题难度并针对困难问题选择技能-based in-context示例,提高小语言模型在数学推理任务中的性能,同时避免认知过载。

In-Context Learning, Small Language Model, Adaptive Systems, Reasoning, Math Instruction, Cognitive Load

Yinghui He, Abhishek Panigrahi, Yong Lin, Sanjeev Arora

Princeton University

Generated by grok-3-mini-latest

Background Problem

本研究的出发点是解决小语言模型(SLMs)在in-context学习(ICL)中的性能差距问题。具体背景是,虽然基于技能的ICL策略(如利用大型语言模型的元认知能力来选择in-context示例)能显著提升大型模型的性能,但对SLMs的提升有限,甚至可能在简单问题上因引入不必要的信息导致性能下降,类似于人类的认知过载。该工作解决了SLMs在数学任务中ICL性能不佳的关键问题,特别是如何通过适应性策略避免过载并针对困难问题提供针对性指导,以提高整体问题解决能力。

Method

Experiment

Further Thoughts

这项工作强调了适应性教学在AI中的潜力,不仅限于in-context学习,还可扩展到模型训练中,例如结合课程学习(curriculum learning)或知识蒸馏(knowledge distillation),以更有效地利用大型模型指导小型模型;此外,借鉴认知负荷理论,可能在其他领域如自然语言理解或代码生成中应用,优化提示策略;未来可探索将此方法与强化学习相结合,动态调整阈值或技能检测,以实现更智能的自适应系统,并与其他研究如元认知模型整合,探讨AI与人类学习机制的更深层联系。



Previous Post
TT-LoRA MoE: Unifying Parameter-Efficient Fine-Tuning and Sparse Mixture-of-Experts
Next Post
Efficient Reasoning for LLMs through Speculative Chain-of-Thought