Skip to content
Go back 2505.23844 arXiv logo

Enabling Flexible Multi-LLM Integration for Scalable Knowledge Aggregation

Published:  at  11:27 AM
92.94 🤔

本文提出了一种动态整合框架,通过自适应选择网络和动态加权融合策略从多个LLM中聚合知识,显著提升性能并减少50%的知识干扰,同时保持计算效率。

Large Language Model, Knowledge Fusion, Adaptive Systems, Efficiency, Multimodality

Zhenglun Kong, Zheng Zhan, Shiyue Hou, Yifan Gong, Xin Meng, Pengwei Sui, Peiyan Dong, Xuan Shen, Zifeng Wang, Pu Zhao, Hao Tang, Stratis Ioannidis, Yanzhi Wang

Northeastern University, Peking University, Harvard University, Google

Generated by grok-3

Background Problem

大型语言模型(LLM)在多个领域展现出强大潜力,但通过传统微调持续改进其性能仍面临挑战,尤其是在整合来自其他专业化LLM的能力时。现有方法如集成和权重合并需要大量内存,且难以适应不断变化的数据环境,而知识融合方法常因任务间干扰导致性能下降。本文旨在解决如何在不增加内存和计算开销的情况下,通过从多个LLM中自适应选择和聚合知识,构建一个更强大的单一模型,同时减少知识干扰。

Method

本文提出了一种动态整合框架,通过以下核心组件实现多LLM知识聚合:

Experiment

实验在多个基准数据集上评估了所提出的Fusion-X框架,包括常识推理(Common Sense, CS)、推理任务(Big-Bench Hard, BBH)、多任务语言理解(MMLU)和代码生成(MultiPL-E, ME)。

Further Thoughts

本文提出的自适应选择和动态融合框架为多模型整合提供了一个有前景的方向,但其实际应用中的一些挑战值得进一步探索。例如,如何在推理阶段实时执行自适应选择而不会显著增加延迟?是否可以通过引入在线学习机制,使框架能够动态适应新加入的模型或数据分布变化?此外,知识干扰的减少虽然显著,但其根本原因可能与模型间的知识冲突或任务特异性有关,未来可以考虑结合知识分解技术(如将模型知识按任务或领域拆分)来进一步优化融合过程。另一个有趣的方向是探索该框架在跨模态任务中的潜力,例如将语言模型与视觉基础模型结合,是否也能通过类似的自适应选择机制减少模态间的干扰?这种思路可能与近年来的多模态系统研究(如Vision-Language Models)产生有趣的交叉启发。



Previous Post
Attention Retrieves, MLP Memorizes: Disentangling Trainable Components in the Transformer
Next Post
Memento No More: Coaching AI Agents to Master Multiple Tasks via Hints Internalization