Tag: Large Language Model
All the articles with the tag "Large Language Model".
-
ThinkLess: A Training-Free Inference-Efficient Method for Reducing Reasoning Redundancy
ThinkLess 提出了一种无需训练的推理效率提升框架,通过注意力分析揭示 CoT 推理冗余并早期终止生成,结合轻量级输出调节机制,在保持准确率的同时显著降低 token 使用量和推理时间。
-
HAPO: Training Language Models to Reason Concisely via History-Aware Policy Optimization
HAPO 通过历史感知的策略优化训练语言模型,利用动态长度奖励机制显著减少推理输出长度(33-59%),同时仅以 2-5% 的准确率下降为代价,优于现有方法。
-
Universal Cross-Tokenizer Distillation via Approximate Likelihood Matching
本文提出了一种跨分词器蒸馏方法ALM,通过近似似然匹配实现不同分词器间的知识转移,首次在子词到字节级迁移等场景中取得显著效果,并在多个应用案例中优于现有方法。
-
InftyThink: Breaking the Length Limits of Long-Context Reasoning in Large Language Models
INFTYTHINK通过将长上下文推理分解为迭代短推理片段并结合中间总结,突破了大型语言模型的上下文长度限制,在多个基准上显著提升性能,同时降低了计算成本。
-
Adaptive Deep Reasoning: Triggering Deep Thinking When Needed
本文提出了一种自适应深度推理方法,通过监督微调和强化学习使大型语言模型根据问题复杂性自动切换长链和短链推理模式,并在数学任务上展示了有效性和效率提升。