Skip to content
Go back 2503.23895 arXiv logo

Dynamic Parametric Retrieval Augmented Generation for Test-time Knowledge Enhancement

Published:  at  04:29 PM
71.89 🤔

本文提出动态参数化RAG框架DyPRAG,通过训练一个轻量级参数翻译器在测试时动态转换文档为参数知识,显著降低成本、提升泛化能力和缓解RAG幻觉问题。

Retrieval-Augmented Generation, Large Language Model, Knowledge Enhancement, Parameter-Efficient Fine-Tuning, Inference Efficiency, Hallucination Mitigation

Yuqiao Tan, Shizhu He, Huanxuan Liao, Jun Zhao, Kang Liu

中国科学院自动化研究所, 中国科学院大学

Generated by grok-3-mini-latest

Background Problem

大型语言模型(LLMs)在知识密集型任务中表现出色,但由于无法访问外部知识和容易产生幻觉,研究者开发了知识增强方法。检索增强生成(RAG)通过从外部来源检索相关文档并将其注入输入上下文来提升LLMs的性能,但这会显著增加推理成本并导致RAG幻觉问题(即知识冲突)。参数化RAG(PRAG)通过将文档嵌入LLMs参数来减少推理成本,但其高训练和存储成本以及有限的泛化能力限制了其实际应用。本文的工作起点是解决这些挑战,即如何在减少成本的同时提高RAG系统的效率和鲁棒性,特别是缓解知识冲突和幻觉问题。

Method

Experiment

Further Thoughts

DyPRAG的动态参数生成方法启发我们思考如何在实时应用中更高效地融合内部和外部知识,或许可以扩展到其他任务如数学推理或多模态处理中;此外,与其他RAG方法(如FLARE或DRAGIN)的结合可能进一步优化检索策略,而在知识冲突检测上,开发基于模型内部状态的工具(如perplexity改进)能够更准确评估和缓解幻觉问题。



Previous Post
Adversarial Attacks on LLM-as-a-Judge Systems: Insights from Prompt Injections
Next Post
Block Circulant Adapter for Large Language Models