Skip to content
Go back 2505.13141 arXiv logo

Understanding Cross-Lingual Inconsistency in Large Language Models

Published:  at  11:22 AM
86.50 🤔

本文通过logit lens分析大型语言模型(LLMs)的跨语言不一致性,发现大型模型倾向于在个别语言子空间操作而非共享语义空间,并提出跨语言激活引导方法以提升小型模型的多语言推理性能和知识转移。

Large Language Model, Reasoning, Multimodal Data, Representation Learning, In-Context Learning

Zheng Wei Lim, Alham Fikri Aji, Trevor Cohn

The University of Melbourne, MBZUAI, Google

Generated by grok-3

Background Problem

大型语言模型(LLMs)在跨语言任务中表现出一定的能力,但当使用不同语言提出相同查询时,模型输出往往不一致,且在非英语语言上的性能差距显著。本研究旨在探究LLMs如何将知识从一种语言泛化到其他语言,解决跨语言一致性和知识转移不足的关键问题,揭示模型在多语言处理中依赖个别语言子空间而非共享语义空间的潜在原因。

Method

Experiment

Further Thoughts

本文提出的跨语言激活引导方法为提升LLMs的多语言一致性提供了一个新思路,但其依赖英语作为共享语义空间的中心可能加剧文化和语言偏见,尤其是在非西方语言和文化背景下。未来研究可以探索非英语中心的共享空间构建方法,例如通过多语言对齐的预训练或多语言知识图谱的引入,以更公平地处理不同语言的表示。此外,论文未深入探讨低资源语言的表现差异,这可能与训练数据的分布不均有关,结合联邦学习(Federated Learning)或数据增强技术或许能改善这一问题。另一个值得思考的方向是,激活引导方法是否可以扩展到非多选题任务,如开放式问答或生成任务,这需要更复杂的隐层表示调整策略,可能涉及非线性方法的引入,如深度神经网络对隐层激活的动态调整。



Previous Post
Internal Chain-of-Thought: Empirical Evidence for Layer-wise Subtask Scheduling in LLMs
Next Post
An Efficient Sparse Kernel Generator for O(3)-Equivariant Deep Networks