Skip to content
Go back 2504.21132 arXiv logo

LLM Enhancer: Merged Approach using Vector Embedding for Reducing Large Language Model Hallucinations with External Knowledge

Published:  at  04:31 PM
51.20 🤔

本文提出 LLM-ENHANCER 系统,通过合并多个在线数据来源并使用向量嵌入减少大型语言模型的幻觉,提高响应准确性,同时保持自然性和经济性。

Large Language Model, Vector Embeddings, Hallucination Mitigation, External Knowledge Integration, Data Accuracy, Human-AI Interaction

Naheed Rayhan, Md. Ashrafuzzaman

Jagannath University

Generated by grok-3-mini-latest

Background Problem

大型语言模型(LLMs)如 ChatGPT 能够生成类似人类的自然响应,但其在真实世界关键场景中的应用受到限制,因为它们容易产生幻觉(即不准确的信息)、无法有效利用外部知识来源,并且依赖过时的训练数据。本研究的出发点是解决这些问题,减少幻觉,提高模型的准确性和可靠性。关键问题包括 LLMs 的记忆扭曲(memory distortion),这可能导致在关键任务中出现错误信息,并带来潜在风险;此外,针对自定义数据的微调成本高昂,亟需更经济有效的替代方法。

Method

方法的核心思想是通过 LLM-ENHANCER 系统整合多个在线数据来源(如 Google、Wikipedia 和 DuckDuckGo),使用代理工具并行获取信息,以减少 LLMs 的幻觉。具体实现包括:

Experiment

实验使用了 WikiQA 数据集(预处理后包含 369 个唯一问题)和自定义 Dataset2023-24(包含 500 个 2023-2024 年的最新问题),目的是评估 LLM-ENHANCER 在减少幻觉方面的效果。实验设置包括比较不同模型(如 GPT-3.5 Turbo、Mistral 7B、顺序工具模型和 LLM-ENHANCER)的性能,使用指标如精确率、召回率、F1 分数和执行时间。为什么这样设计:WikiQA 用于测试旧数据表现,Dataset2023-24 用于验证新数据下的鲁棒性。结果显示,LLM-ENHANCER 在 WikiQA 上将 F1 分数从顺序模型的 0.58 提高到 0.77,在 Dataset2023-24 上从 0.82 提高到 0.85,表明方法改善明显且符合预期;执行时间稍长,但准确性提升值得。公式如下: Precision = \frac{TP}{TP + FP} \tag{1} Recall = \frac{TP}{TP + FN} \tag{2} F1-score = \frac{2(\text{Precision} \times \text{Recall})}{\text{Precision} + \text{Recall}} \tag{3} 实验设置全面合理,覆盖了不同数据集和指标。

Further Thoughts

这个方法通过并行数据合并和向量嵌入提升了 LLMs 的外部知识整合效率,值得注意的是,它与 Baolin Peng 等人的 LLM-AUGMENTER 类似,但采用了开源模型和并行工具,这在资源受限的环境中更具优势;未来可以探索与其他模态(如图像或视频)的整合,或使用更先进的嵌入模型来进一步减少幻觉,并扩展到多语言或实时更新知识库的应用中,以增强泛化能力。



Previous Post
Empirical Evaluation of Progressive Coding for Sparse Autoencoders
Next Post
Paper2Code: Automating Code Generation from Scientific Papers in Machine Learning