论文阅读:arxiv 2025 Chain of Draft: Thinking Faster by Writing Less

总目录 大模型安全相关研究:https://blog.csdn.net/WhiffeYF/article/details/142132328

https://www.doubao.com/chat/8749714891935490

https://arxiv.org/pdf/2502.18600

Chain of Draft: Thinking Faster by Writing Less
在这里插入图片描述

速览

这篇论文提出了一种名为“Chain of Draft(CoD)”的新方法,核心是让大语言模型在推理时用更简洁的中间步骤,就像人类解决问题时记要点而非详细步骤一样。以下是对文档内容的通俗解读:

1. 研究背景

  • 大语言模型的推理方式:像GPT-4这样的大语言模型,在解决复杂问题时常用“Chain of Thought(CoT)”方法,即一步步详细推理,比如算数学题时把每一步都写得清清楚楚。这种方法确实有效,但会产生大量冗余内容,增加计算成本和响应延迟。
  • 人类的推理习惯:人类解决问题时更倾向于记“要点”,比如算题时只写关键公式和中间结果,不会啰嗦地解释每一步。CoD就是受此启发,让模型用更简洁的方式推理。

2. CoD的核心思路

  • 减少冗余,聚焦关键:CoD要求模型在推理时每个步骤最多用5个词,只保留对解题最关键的信息。比如算“20个棒棒糖给了Denny一些后剩12个,给了多少个”,CoT会详细解释“初始有20个,给了之后剩12个,所以用减法……”,而CoD直接写“20 - x = 12;x = 8”。
  • 效果:在多个推理任务中,CoD的准确率和CoT相当甚至更高,但用的token(可以理解为“字数”)只有CoT的7.6%左右,大大降低了计算成本和延迟。

3. 实验验证

  • 测试任务:涵盖算术推理(如GSM8K数学题)、常识推理(如日期和体育知识理解)、符号推理(如硬币翻转预测)。
  • 主要结果
    • 算术推理:GPT-4o和Claude 3.5用CoD时准确率约91%,接近CoT的95%,但token用量减少80%,延迟降低约70%。
    • 常识推理:在体育理解任务中,Claude 3.5用CoD的token用量从189.4骤降至14.3,准确率反而从87%提升到89.7%。
    • 符号推理:CoD和CoT都能达到100%准确率,但CoD的token用量少68%-86%。

4. 局限性

  • 零样本场景表现差:如果不给模型示例,直接让它用CoD推理,准确率会明显下降。比如Claude 3.5在零样本GSM8K测试中,CoD仅比直接回答高3.6%。
  • 小模型效果有限:在参数小于30亿的小模型(如Qwen2.5、Llama 3.2)上,CoD虽然能减少token用量,但准确率比CoT低不少,可能因为小模型训练数据中缺乏CoD式的推理模式。

5. 实际意义

  • 成本与效率优势:CoD能大幅降低大模型的使用成本,比如企业部署时可减少算力消耗,同时让模型响应更快,适合实时应用(如对话机器人、实时问答系统)。
  • 未来方向:可以和其他优化方法(如并行推理)结合,进一步提升效率;也可以通过专门训练让小模型更好地适应CoD。

总结

CoD证明了大模型推理不必“啰嗦”,用简洁的“要点式”思考既能保证准确性,又能显著提升效率、降低成本,为大模型的实际应用(尤其是对延迟和成本敏感的场景)提供了新方向。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CSPhD-winston-杨帆

给我饭钱

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值