Skip to content
Go back 2503.06692 arXiv logo

InftyThink: Breaking the Length Limits of Long-Context Reasoning in Large Language Models

Published:  at  11:52 AM
85.32 🤔

INFTYTHINK通过将长上下文推理分解为迭代短推理片段并结合中间总结,突破了大型语言模型的上下文长度限制,在多个基准上显著提升性能,同时降低了计算成本。

Large Language Model, Long Context, Reasoning, Efficiency, Instruction Tuning

Yuchen Yan, Yongliang Shen, Yang Liu, Jin Jiang, Mengdi Zhang, Jian Shao, Yueting Zhuang

Zhejiang University, Meituan Group, Peking University

Generated by grok-3

Background Problem

大型语言模型(LLMs)在高级推理任务中表现出色,但长上下文推理范式面临重大挑战:计算复杂性随序列长度呈二次方增长、推理受最大上下文长度限制、以及超出预训练上下文窗口时的性能下降。现有方法多通过压缩推理链来缓解问题,但未能解决根本的计算扩展问题。INFTYTHINK旨在通过将长推理分解为迭代的短推理片段并结合中间总结,突破上下文长度限制,同时降低计算成本。

Method

INFTYTHINK提出了一种新的推理范式,将传统的单次长上下文推理转变为多轮迭代推理,每轮包含短推理片段和中间总结,具体步骤如下:

Experiment

实验在多个模型架构(包括Qwen2.5-Math系列和Meta-Llama-3.1-8B)上验证了INFTYTHINK的效果,具体设置和结果如下:

Further Thoughts

INFTYTHINK的迭代推理范式为解决长上下文推理的计算瓶颈提供了一个新颖视角,但其对总结质量的依赖性可能成为实际应用中的一大障碍。未来可以探索结合强化学习(如GRPO)来优化总结生成策略,或者引入自适应η值机制以根据问题复杂度动态调整推理片段长度。此外,这种方法是否适用于多模态推理任务(如结合视觉和文本推理)值得进一步研究,尤其是在需要跨模态信息整合的场景中,迭代总结可能面临更大挑战。我还联想到,INFTYTHINK的“锯齿状”内存模式与人类工作记忆的运作方式有相似之处,这或许能为设计更符合认知科学的AI推理系统提供启发,但需要更多跨学科研究来验证其与人类推理的真正契合度。



Previous Post
Let's Predict Sentence by Sentence
Next Post
Reverse Preference Optimization for Complex Instruction Following