Skip to content
Go back 2505.12584 arXiv logo

Improving Multilingual Language Models by Aligning Representations through Steering

Published:  at  11:22 AM
85.45 🤔

本文提出了一种通过表示引导调整大型语言模型层级表示的方法,以提升多语言任务性能,实验显示其在多种任务中优于基本提示并接近翻译基线,但对英语任务有负面影响且对低资源语言改进有限。

Large Language Model, Representation Learning, Multimodality, Alignment, Instruction Tuning

Omar Mahmoud, Buddhika Laknath Semage, Thommen George Karimpanal, Santu Rana

Deakin University, Australia

Generated by grok-3

Background Problem

大型语言模型(LLMs)在英语任务上表现出色,但在非英语语言(尤其是低资源语言)上的表现较差,主要由于训练数据的匮乏和翻译方法的成本与质量限制。现有研究表明,LLMs在处理非英语输入时常在中间层将其翻译为英语,但这种内部翻译存在对齐不完善的问题,导致多语言任务性能不一致。本文试图通过研究LLMs内部如何处理多语言提示,探索一种不依赖翻译的原生多语言处理方法,解决非英语语言表示与英语表示的对齐问题,以提升模型在多语言任务中的表现。

Method

本文提出了一种基于表示引导(representation steering)的方法,通过在模型特定层的激活值上添加一个学习到的引导向量(steering vector)来调整非英语语言的表示,使其更接近英语表示。具体步骤如下:

Experiment

实验设计围绕三个研究问题展开:(1)表示干预是否提升模型性能;(2)内部翻译质量是否可量化;(3)引导向量是否可跨语言迁移。使用的数据集包括多语言数学推理数据集MSVAMP和通用任务数据集Tatoeba,评估任务涵盖数学推理(MGSM)、语言理解(XLNI)等五个领域,涉及高、中、低资源语言。实验在多个开源模型(如Llama2-7B、Aya23-8B)上进行,并与基本提示、Google Translate、NLLB等基线方法对比。

Further Thoughts

本文提出的表示引导方法虽然在多语言任务中展现了一定潜力,但其线性引导向量的局限性值得深入探讨。未来研究可以考虑逐个token动态学习引导向量,以捕捉更细粒度的语言差异。此外,论文中提到的引导向量跨语言迁移性是一个有趣的方向,但实验仅限于少数语言对,未能覆盖更多语言家族(如非洲或南亚语言),这限制了结论的普适性。另一个值得思考的点是,该方法与监督微调(SFT)和人类反馈强化学习(RLHF)的结合潜力:是否可以通过结合这些技术,在预训练阶段就构建更语言无关的表示空间,从而减少推理时干预的需求?此外,考虑到多语言模型在实际应用中的公平性问题,未来工作应更关注低资源语言的表现,确保技术进步不会进一步加剧语言资源的不平等。



Previous Post
Pre-training vs. Fine-tuning: A Reproducibility Study on Dense Retrieval Knowledge Acquisition
Next Post
Explaining Context Length Scaling and Bounds for Language Models