问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

NeurIPS 2024 (Oral) | 如何量化与提升思维链的推理能力边界?

创作时间:
作者:
@小白创作中心

NeurIPS 2024 (Oral) | 如何量化与提升思维链的推理能力边界?

引用
1
来源
1.
https://m.aitntnews.com/newDetail.html?newId=8579

大型语言模型(LLMs)在处理各种复杂任务中取得了长足进展,但面对复杂的推理任务时,往往容易跳过推理的中间步骤,直接生成最终答案,这使得它们在应对复杂问题时容易犯错。为了解决这一问题,来自哈尔滨工业大学赛尔实验室的研究团队提出了推理边界框架(Reasoning Boundary Framework, RBF),首次尝试量化并优化思维链推理能力。

大型语言模型(LLMs)与思维链推理能力

什么是思维链(Chain-of-Thought, CoT)?

近年来,大型语言模型(LLMs)在处理各种复杂任务中取得了长足进展,从文本生成到问题解答,LLMs 几乎无所不能。然而,面对复杂的推理任务,LLMs 也存在瓶颈——模型往往容易跳过推理的中间步骤,直接生成最终答案,这使得它们在应对复杂问题时容易犯错。

思维链推理(CoT)是一种让模型分步推理复杂问题的方法。与传统模型的直接生成答案不同,CoT 通过逐步细化问题的每一步,从而得到更准确、更有逻辑的结果。

为什么它如此重要?

为什么 CoT 很重要?因为面对复杂的推理任务,模型往往会因为信息量大、推理路径复杂而犯错。CoT 的逐步推理策略使模型能够处理更具挑战性的任务——从数学题解到现实决策问题,它能帮助模型分解任务,找到每个步骤的最佳解法。这不仅提升了模型的准确性,还显著增强了它处理复杂任务的能力,使其能够应用于更广泛的实际场景中。

模型推理的困境:复杂任务中的可解释性难题

想象这样一个情景:你正在处理一个复杂的项目,需要模型综合多种能力,最终通过多步推理找到最优解决方案,那么这些能力和推理能力是如何组合,共同影响并改进最终性能的呢?

为了解决该问题,该文章通过研究以下几个问题来理解和解决这个问题。

2.1 模型在面对复杂推理时,如何对推理能力进行量化?

当前多数研究依赖定性分析,缺乏统一的量化指标来系统比较不同的 CoT 推理方法。这种局限性导致研究者难以精确评估和预测模型在复杂任务中的推理能力上限,阻碍了对 CoT 推理效果的深入理解和科学验证。

为此,研究人员提出推理边界框架(Reasoning Boundary Framework, RBF),定义了模型在不同准确率对于的推理能力边界。并提出了三种推理边界以量化推理能力边界:完全可行推理边界(CFRB);完全不可行推理边界(CIRB);部分可行推理边界(PFRB)。

2.2 推理能力与不同的其他能力如何组合?

在实际场景中,模型往往需要集成多种能力才能有效地解决某一任务。

为了定量描述如何通过思维链 CoT 机制实现多种能力的协同提升,研究者进一步提出了 “ 推理边界的组合律 ”,并推导并验证了该组合律的具体公式。

2.3 如何基于可解释性框架优化思维链?

虽然已有研究揭示了 CoT 推理的部分机制,但如何系统性地优化 CoT 推理的效率和效果仍缺少明确的策略与方法指导。这一不足限制了 CoT 技术在实际应用中的进一步改进与拓展。

根据推理边界框架,本文提出了最短可接受推理路径(MARP)优化推理效率。无论是在复杂的数学推理还是多跳推理中,RBF 都能帮助模型在海量信息中找到最优路径,大幅提升推理效果。

概念定义

3.1 推理边界

为了量化大型语言模型的复杂推理能力,如图 1 (a) 所示,研究者引入了推理边界(Reasoning Boundary, RB)的概念,定义了 LLMs 在特定推理过程中能够处理的任务难度上限。

具体而言,RB 被定义为模型 m 和任务 t 作为问题难度 d 的最大值,模型的准确性达到预定义阈值:

其中 Acc (t|d, m) 表示模型在难度为 d 的任务 t 上的准确率。难度可以通过推理步骤数或计算复杂度等因素来衡量。简而言之,RB 反映了模型在保持一定准确性(accuracy)的前提下,其推理能力的边界。

  • 为了简洁起见,在后续文章中将 RB 表示为

。总结:模型的推理边界是由其针对给定任务难度实现特定准确度的能力来定义的。

3.2 推理边界间的组合律

实验设置

  1. 模型设置:研究者们采用了 GPT-3.5-Turbo 作为主要模型,实验还涵盖了多任务场景,包括数学推理、多跳问答和多语言推理等领域,以确保推理边界的全面评估。

  2. 基准设置:为了更好地评估 LLMs 的推理能力,作者引入了一个新的数据集——BigGSM。这个数据集不仅具有较高的计算复杂性,还包含更长的推理链,能够更好地挑战模型的推理上限。

验证性实验

5.1 推理边界存在性验证

研究者们通过实证分析,验证了推理边界在三类任务中的普遍性:

在基础算术运算中,呈现出三种不同的推理边界 (图 2 (a));

在自然语言规划任务中,同样展现出三种不同的推理边界 (图 2 (b));

在代码规划任务中,仍然表现出一致的三种推理边界 (图 2 (c))。

5.2 推理边界组合律验证

在实际应用中,模型通常需要集成多种能力才能高效解决复杂任务。为此,研究者们进一步地验证了实际场景中,推理边界组合律的广泛适用性:

  • 复杂多项式计算的推理边界:可视为 ①计算步骤规划 与 ②数学运算 两个推理边界的结合。如图 3 (a) 所示,实验结果显示了三个具有明显边界的推理边界划分区域。

  • 复杂小学数学推理的推理边界:可理解为 ①自然语言步骤规划 与 ②数学运算 的结合,图 3 (b) 中同样展示了三个清晰的推理边界划分区域。

  • 多跳问答的推理边界:可被视作 ①多跳规划 与 ②实体推理 的结合。正如图 3 (c) 所示,三个推理边界划分的有效区域同样可见。

5.3 不同推理边界的不同性质

研究者验证了不同推理边界在模型中的性质:

  • 完全可行推理边界-->完全掌握:如图 4 (a, b) 所示,在这一边界下,模型即使在没有示例、无需 self-consistency 的情况下也能够高效完成任务。

  • 部分可行推理边界-->不完全掌握:在这一推理边界下,如图 4 (b) 所示,模型对任务的掌握程度有限,需要通过多次 Self-consistency 来增强信心,从而提高准确率。

  • 完全不可行推理边界-->完全不掌握:在这种边界下,如图 4 (b) 所示,模型的推理表现极其有限,即便采用 Self-consistency,模型的准确率仍难以得到提升。

  • 大模型能够自己意识到自己的推理边界:研究还发现,如图 4 (c) 所示,当让模型自行生成 CoT 示例时,模型更倾向于生成符合其推理边界的样本,特别是在完全可行推理边界范围内,而很少生成其完全无法掌握的样本。这表明模型对推理边界具有一定的自我感知能力,能够根据自身能力选择合适的任务进行推理。

基于推理边界的 CoT 优化

为了进一步优化思维链的表现,研究者们提出了基于推理边界优化的多种策略,并对这些策略进行了全面的实验验证,揭示了如何通过调整 RB 提升复杂任务中的推理能力。

6.1 推理边界优化策略

6.2 推理路径优化策略


拓展性探索

7.1 模型扩展验证

  • 推理边界与模型准确率的正相关性:研究者通过对 25 个不同模型的推理边界表现进行分析,发现推理边界与数学任务中的准确率呈现出正相关关系。

  • 数学模型与通用模型在推理边界 - 准确率分布上的差异:通过数学数据微调的模型,推理边界 - 准确率分布虽然呈现出正相关,但与通用 LLM 存在显著差异。这可以为未来区分模型是否进行了数学专项训练提供了一个潜在的指标。

  • 开源模型在完全可行推理边界上的局限性:开源模型在完全可行推理边界(CFRB)上的表现与闭源模型存在显著差异。几乎所有开源模型的 CFRB 值均为 0,这表明开源模型在高级推理任务上的不足,表明其在未来优化中的潜力。

7.2 任务扩展验证

更进一步地,该研究不仅验证了在数学运算、数学推理和多跳问答任务中的推理边界扩展规律,还进一步探索了在多语言推理和医疗推理任务中的表现。

  • 多语言推理:通过将多语言能力、数学计算与推理规划相结合,实验结果表明,这些能力的正交组合后,推理边界依然保持了三类不同的推理边界模式,进一步证实了此方法的普适性和稳定性。

  • 医疗推理:类似地,在医疗领域,研究通过将医疗实体推理与多跳推理规划相结合,验证了推理边界在正交组合后仍然保持一致,说明该推理策略同样适用于医疗推理任务。

如何理解 o1 的优异性能?

为了深入理解当前最先进的大型语言模型 o1,研究人员利用推理边界框架对 GPT 系列模型进行了全面评估。

如图 11 所示,与早期版本相比,各项推理边界指标均有显著提升,模型性能也随之增强。特别是,尽管 GPT-3.5 与 GPT-4o 之间在 完全不可行推理边界(CIRB) 上的改进幅度较大,但 完全可行推理边界(CFRB) 的提升相对较小。然而,在 GPT-o1 版本中,完全可行推理边界的表现则有了显著改善。

进一步来看,图 14 揭示了 GPT-o1 版本在完全可行推理边界上的卓越表现,提升幅度几乎是其他模型的三倍。

研究人员认为,这一成果主要归功于逻辑强化学习技术的进步和 Inference Scaling Law 策略的优化。这些新策略在提升完全可行推理边界方面起到了关键作用,远远超越了常规的改进路径。这一现象可能为未来研究提供了新的方向和启示。

总结

本研究提出了一个推理边界(RB)框架,系统量化并优化大语言模型(LLMs)在思维链(CoT)任务中的推理能力边界。通过定义推理边界和应用优化策略,合理解释了多个 CoT 策略其在推理性能上的优势。同时,最短可接受推理路径(MARP)策略通过减少不必要的推理步骤,显著提高了不同任务中的推理性能与效率。研究者希望 RB 框架能够为相关研究提供理论基础,推动 LLMs 在复杂推理任务中的发展。

本文原文来自微信公众号“机器之心”

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号