Tag: Large Language Model
All the articles with the tag "Large Language Model".
-
Putting It All into Context: Simplifying Agents with LCLMs
本文提出基于长上下文语言模型(LCLM)的‘state-in-context’代理设计,通过将整个环境状态纳入上下文简化软件工程任务的代理架构,在SWE-bench Verified上实现与复杂脚手架方法相当的性能(Gemini-2.5-Pro达到50.8% pass@1)。
-
本文通过隐藏状态的几何特性(可分离性和对齐性)提出统一框架,揭示上下文学习(ICL)在分类任务中的两阶段机制——早期层通过PTH增强可分离性,后期层通过IH优化对齐性,并解释了任务向量的有效性。
-
Understanding Cross-Lingual Inconsistency in Large Language Models
本文通过*logit lens*分析大型语言模型(LLMs)的跨语言不一致性,发现大型模型倾向于在个别语言子空间操作而非共享语义空间,并提出跨语言激活引导方法以提升小型模型的多语言推理性能和知识转移。
-
Exploring the Potential of Offline RL for Reasoning in LLMs: A Preliminary Study
本文通过探索离线强化学习方法(LD-DPO),在DeepDistill-32B模型上实现了平均3.3%的推理性能提升,尤其在Arena-Hard基准上提升10.1%,并强调了推理长度与语义丰富性平衡的重要性。
-
Skip-Thinking: Chunk-wise Chain-of-Thought Distillation Enable Smaller Language Models to Reason Better and Faster
本文提出分块训练(CWT)和跳跃思维训练(STT),通过将推理过程分块并跳过非核心块,显著提升小型语言模型在链式思维蒸馏中的推理准确性和速度。