Skip to content
Go back 2505.15257 arXiv logo

When Less Language is More: Language-Reasoning Disentanglement Makes LLMs Better Multilingual Reasoners

Published:  at  11:07 AM
88.05 🤔

本文提出了一种无训练干预方法,通过在推理时移除大型语言模型中的语言特异性表示以解耦语言和推理,显著提升了多语言推理性能,尤其是在中低资源语言上,同时揭示了语言信号与推理准确性的负相关性。

Large Language Model, Multilingual Systems, Reasoning, Representation Learning, Cross-Lingual Generalization

Weixiang Zhao, Jiahe Guo, Yang Deng, Tongtong Wu, Wenxuan Zhang, Yulin Hu, Xingyu Sui, Yanyan Zhao, Wanxiang Che, Bing Qin, Tat-Seng Chua, Ting Liu

Harbin Institute of Technology, Singapore Management University, Monash University, Singapore University of Technology and Design, National University of Singapore

Generated by grok-3

Background Problem

大型语言模型(LLMs)在多语言推理任务中表现出显著的不平衡,性能主要集中在高资源语言(如英语和中文)上,而在中低资源语言上的表现较差。这种多语言推理能力的差距限制了LLMs的全球适用性,加剧了语言不平等,并边缘化了数据和投资有限的语言。论文从认知神经科学的视角出发,提出假设:LLMs中的推理和语言处理可以像人类大脑一样被分离,通过解耦这两者,可以提升跨语言推理的泛化能力,解决多语言推理性能不均的问题。

Method

论文提出了一种无训练的干预方法,通过在推理时对LLMs的隐藏状态进行因果干预,移除语言特异性表示,以实现语言和推理的解耦。具体步骤如下:

Experiment

实验在10个开源LLMs上进行,涵盖推理导向和通用模型,涉及11种语言(高、中、低资源语言各有代表),使用三个多语言推理基准(MGSM、XWinograd、M-MMLU)评估准确率。实验设置包括:

Further Thoughts

本文提出的语言-推理解耦思路为提升LLMs的多语言能力提供了一个新颖且轻量级的视角,但其理论基础和实际效果仍需进一步探索。例如,是否可以通过更精细的表示工程方法,不仅移除语言特异性信号,还能保留必要的语言上下文,以避免输出保真度的下降?此外,这种干预方法是否可以与其他领域(如多模态系统)结合,探索语言与视觉推理的解耦?与现有研究(如多语言预训练和后训练策略)的对比也值得深入,例如,将解耦干预与高质量多语言数据集构建结合,是否能进一步提升性能?另一个有趣的方向是,这种方法是否适用于其他非推理任务(如翻译或生成),以验证解耦假设的普适性。最后,考虑到英语在干预后成为默认输出语言的现象,未来研究可以探讨预训练数据分布对解耦效果的影响,以及如何设计更平衡的多语言表示空间,以避免高资源语言的过度主导。



Previous Post
Diffusion vs. Autoregressive Language Models: A Text Embedding Perspective
Next Post
RAGEN: Understanding Self-Evolution in LLM Agents via Multi-Turn Reinforcement Learning