Tag: Prompt Engineering
All the articles with the tag "Prompt Engineering".
-
R1-Compress: Long Chain-of-Thought Compression via Chunk Compression and Search
R1-Compress通过块级压缩和块间搜索机制有效压缩长链式推理(Long-CoT),在减少约20% token使用量的同时保持了与基线接近的推理准确率(92.4% vs 93.0%)。
-
ThinkSwitcher: When to Think Hard, When to Think Fast
ThinkSwitcher通过一个轻量级自适应框架,使单一大型推理模型根据任务复杂性动态切换长短链式推理模式,在数学推理基准上减少20-30%计算成本,同时在复杂任务上保持较高准确率。
-
Putting It All into Context: Simplifying Agents with LCLMs
本文提出基于长上下文语言模型(LCLM)的‘state-in-context’代理设计,通过将整个环境状态纳入上下文简化软件工程任务的代理架构,在SWE-bench Verified上实现与复杂脚手架方法相当的性能(Gemini-2.5-Pro达到50.8% pass@1)。
-
Revisiting Overthinking in Long Chain-of-Thought from the Perspective of Self-Doubt
本文从自我怀疑视角量化分析长链式思维中的过度思考问题,并提出一种简单提示方法,通过评估输入有效性减少令牌消耗和自我怀疑,在数学推理任务中显著提升效率并维持准确率。
-
Large Language Models Might Not Care What You Are Saying: Prompt Format Beats Descriptions
本文提出了一种'Ensemble'提示框架,通过描述上下文示例选择标准提升大型语言模型在上下文学习中的性能,实验表明模型对提示格式的敏感性远高于描述内容本身,尤其在小型模型上效果显著。