问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

从想太多到想不透?DeepSeek-R1等长推理模型也存在「思考不足」问题

创作时间:
作者:
@小白创作中心

从想太多到想不透?DeepSeek-R1等长推理模型也存在「思考不足」问题

引用
1
来源
1.
https://m.php.cn/faq/1219865.html

腾讯AILab联合苏州大学、上海交通大学团队的一项最新研究揭示了长推理模型的“思考不足”现象,并提出了一种改进方法。这项研究发表于arxiv,通讯作者为腾讯专家研究员涂兆鹏。

研究发现,类似OpenAI o1等长推理模型,虽然展现出强大的深度思考能力,但在解决复杂问题时,往往会频繁切换思路,无法深入思考某个方向,导致最终答案错误。研究团队将这种现象称为“思考不足”(Underthinking),并将其比喻为模型的“注意力缺陷多动障碍”。







研究团队通过分析不同难度级别的数学问题,发现模型在难题上的错误答案往往伴随着更多的思路切换和更长的 token 数量,但准确率并未提升。他们进一步提出了一种“思考不足”评分机制,定量评估模型在错误回答中推理效率的低下程度。

为解决这个问题,研究团队提出了一种名为“思路转换惩罚”(Thought Switching Penalty,TIP)的解码策略,通过惩罚思路切换行为来鼓励模型更深入地思考。实验结果表明,TIP策略能够有效提升模型的准确率并降低“思考不足”现象。这项研究为改进长推理模型提供了新的思路和方法。

论文信息:

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号