Skip to content
Go back 2505.14398 arXiv logo

Log-Augmented Generation: Scaling Test-Time Reasoning with Reusable Computation

Published:  at  11:18 AM
89.05 🤔

本文提出日志增强生成(LAG)框架,通过使用KV缓存直接复用过去的推理计算,显著提升大型语言模型在知识和推理密集型任务上的准确性和效率,优于标准代理系统及现有反思和KV缓存方法。

Large Language Model, Reasoning, Efficiency, Representation Learning, In-Context Learning

Peter Baile Chen, Yi Zhang, Dan Roth, Samuel Madden, Jacob Andreas, Michael Cafarella

MIT, AWS AI, University of Pennsylvania

Generated by grok-3

Background Problem

大型语言模型(LLM)及其代理系统在处理任务时,通常无法像人类一样从过去的经验中学习并应用于新任务,导致重复推理和效率低下。本文提出了一种日志增强生成(LAG)框架,旨在通过直接复用过去的推理计算和上下文来提升模型在新任务上的表现,解决LLM缺乏任务间知识和推理复用的关键问题,同时保持系统的高效性和可扩展性。

Method

日志增强生成(LAG)框架的核心思想是通过存储和复用过去的推理日志来增强大型语言模型在新任务上的推理能力。其主要步骤如下:

关键创新:LAG直接复用推理计算,避免了额外的知识提取或蒸馏步骤,与基于反思的记忆机制不同;同时,它不仅关注计算效率(如传统KV缓存),还强调通过上下文复用来提升准确性。

潜在问题:尽管KV值理论上能捕捉更丰富的语义,但其高维向量带来的存储成本较高,且检索机制可能引入不相关日志,导致噪声干扰生成过程。此外,论文未充分讨论如何在动态更新的日志库中保持检索效率和准确性。

Experiment

实验在知识密集型(Musique, 2WikiMultiHop)和推理密集型(GPQA, MMLU-Pro)数据集上进行评估,采用Llama-3.1-8B-Instruct模型,设置了多个基线包括标准代理系统、基于反思的方法和传统KV缓存方法。实验设计将数据集分为70%用于构建日志库(seen)和30%用于测试(unseen),以模拟真实部署场景。

Further Thoughts

LAG框架通过KV缓存复用推理上下文展现了潜力,但其存储成本和检索机制的局限性值得进一步探讨。未来的研究可以考虑与检索增强生成(RAG)结合,通过更智能的日志过滤策略(如基于任务类型或推理质量的动态选择)减少噪声,提升检索精度。此外,论文未涉及日志库动态更新的场景,而在实际应用中,日志库可能会随时间增长,如何在这种情况下保持效率和准确性是一个重要问题。另一个有趣的方向是探索LAG是否能与其他学习范式(如持续学习或元学习)结合,以进一步增强模型跨任务的学习能力。最后,考虑到KV缓存的高存储成本,是否可以通过压缩技术(如量化或稀疏化)进一步优化存储需求,同时保持性能?这些问题可能为后续研究提供新的视角。



Previous Post
Self-Data Distillation for Recovering Quality in Pruned Large Language Models
Next Post
The Mosaic Memory of Large Language Models