Skip to content
Go back 2505.22202 arXiv logo

Let's Predict Sentence by Sentence

Published:  at  11:40 AM
85.45 🤔

本文提出了一种句子级推理框架,通过自回归预测连续句子嵌入,将预训练语言模型提升到抽象推理空间,上下文嵌入在连续推理模式下与Chain-of-Thought (CoT) 表现相当,同时平均将推理计算成本降低一半。

Large Language Model, Representation Learning, Reasoning, Embeddings, Efficiency

Hyeonbin Hwang, Byeongguk Jeon, Seungone Kim, Jiyeon Kim, Hoyeon Chang, Sohee Yang, Seungpil Won, Dohaeng Lee, Youbin Ahn, Minjoon Seo

KAIST, Carnegie Mellon University, University College London, LG AI Research

Generated by grok-3

Background Problem

自回归语言模型(LMs)通过逐个token预测在复杂推理任务上取得了显著成功,尤其是在Chain-of-Thought (CoT) 方法的辅助下,通过生成中间推理步骤来提升性能。然而,这种逐token生成的方式在计算上效率低下,且是否以如此细粒度进行推理是最优的仍未有定论。人类认知通常在更高层次的抽象(如句子、命题或概念)上运作,因此本研究探索了一个核心问题:预训练语言模型是否能基于其已有的token级表示,构建更高层次的抽象推理空间,从而实现更结构化和高效的推理。

Method

本论文提出了一种框架,将预训练的token级语言模型适应到句子级推理空间,通过自回归预测连续的下一句嵌入来实现抽象推理。具体方法如下:

Experiment

实验基于GPT-2模型,在四个推理领域(数学-GSM8K、常识-CommonsenseQA、逻辑-ProsQA、规划-Blocksworld)进行评估,旨在验证句子级推理框架是否能与token级CoT媲美,并分析不同嵌入范式和推理模式的表现。

Further Thoughts

本论文提出的句子级推理框架为语言模型的高效推理开辟了新方向,但其连续推理的脆弱性问题值得深入探讨。未来的研究可以考虑引入混合框架,在关键推理步骤中加入离散化瓶颈,以提高稳定性,同时保留连续推理的效率优势。此外,论文中提到的自训练和强化学习方向具有潜力,例如利用中间解码句子作为辅助监督信号,可能进一步优化推理轨迹的连贯性和准确性。跨领域关联方面,这一框架可能与多模态推理结合,通过将视觉或音频数据映射到类似的抽象嵌入空间,实现跨模态的高效推理,这与当前多模态基础模型(如Vision Foundation Model)的发展趋势相呼应。最后,论文的可解释性工具SentenceLens虽然提供了直观洞察,但其推理连贯性不足的问题提示我们需要在抽象推理和语言 grounding 之间找到更好的平衡,这可能是未来AI可解释性研究的一个关键点。



Previous Post
Next Token Perception Score: Analytical Assessment of your LLM Perception Skills
Next Post
InftyThink: Breaking the Length Limits of Long-Context Reasoning in Large Language Models