从想太多到想不透?DeepSeek-R1等长推理模型也存在「思考不足」问题
创作时间:
作者:
@小白创作中心
从想太多到想不透?DeepSeek-R1等长推理模型也存在「思考不足」问题
引用
1
来源
1.
https://m.php.cn/faq/1219865.html
腾讯AILab联合苏州大学、上海交通大学团队的一项最新研究揭示了长推理模型的“思考不足”现象,并提出了一种改进方法。这项研究发表于arxiv,通讯作者为腾讯专家研究员涂兆鹏。
研究发现,类似OpenAI o1等长推理模型,虽然展现出强大的深度思考能力,但在解决复杂问题时,往往会频繁切换思路,无法深入思考某个方向,导致最终答案错误。研究团队将这种现象称为“思考不足”(Underthinking),并将其比喻为模型的“注意力缺陷多动障碍”。
研究团队通过分析不同难度级别的数学问题,发现模型在难题上的错误答案往往伴随着更多的思路切换和更长的 token 数量,但准确率并未提升。他们进一步提出了一种“思考不足”评分机制,定量评估模型在错误回答中推理效率的低下程度。
为解决这个问题,研究团队提出了一种名为“思路转换惩罚”(Thought Switching Penalty,TIP)的解码策略,通过惩罚思路切换行为来鼓励模型更深入地思考。实验结果表明,TIP策略能够有效提升模型的准确率并降低“思考不足”现象。这项研究为改进长推理模型提供了新的思路和方法。
论文信息:
- 论文题目:Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs
- 论文地址:https://www.php.cn/link/3e33f40836bd425bbdf92b71cc707cee
热门推荐
解决手机数据网络无法接入5G的方法及网络设置调整指南
《沧元图》年番,极限条件下的典型样本
从零开始:如何制作令人惊艳的高大上PPT
高等数学导论:导数与偏导数的存在性与连续性
一段幸福婚姻的关键是学会道歉 向伴侣道歉的7种有效方式
脂肪肝定期随访很重要,千万要关注这些指标!
杜甫的三幅“自画像”
打印照片如何储存清晰
股票杠杆:开启高收益潜力与高风险挑战的投资之门
用“猫年”换“蛇年”,老实说有点动心
财政收入难题待解:综合施策保障财政可持续发展
胎位不正:孕育中的“扭曲”之谜
南京地铁里的文化密码:每一站都藏着一段故事
没错,是在南京地铁拍的
老祖宗俗语:一日夫妻百日恩,下半句才是精华,可惜十人九不知
碳足迹评估与节能减排
全球推进女性参与STEM领域的战略行动
上呼吸道感染怎么自愈
如何查询限行信息
详解DIY高性能主机装机:硬件推荐、防坑技巧与安装步骤
一代武侠影后郑佩佩去世,享年78岁
文物里的中国故事:从汉瓦当到红军纸币
中国人最爱吃的这几种早餐,正在伤害你的身体
MATLAB的数据类型和各类数据类型转化示例
中药治便秘最有效的方法有哪些
什么是个体工商户?
PDF文件生成链接的五种实用方法
民勤人的小茴香茶
摄影技巧:如何正确设置光圈?
如何在有限的预算内找到合适的住房?这类情况下有哪些购房策略?