问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

大语言模型中的逻辑推理:综述

创作时间:
作者:
@小白创作中心

大语言模型中的逻辑推理:综述

引用
CSDN
1.
https://m.blog.csdn.net/yorkhunter/article/details/145891220

随着OpenAI o3和DeepSeek-R1等高级推理模型的出现,大语言模型(LLM)已展示出卓越的推理能力。然而,它们进行严格逻辑推理的能力仍是一个悬而未决的问题。本文综述了人工智能研究的关键领域LLM中逻辑推理的最新进展,概述了LLM中逻辑推理的范围、其理论基础以及用于评估推理能力的基准。分析了不同推理范式(演绎、归纳、溯因和类比)的现有能力,并评估了增强推理性能的策略,包括以数据中心为中心调整、强化学习、解码策略和神经符号方法。本文最后提出了未来的方向,强调需要进一步探索以加强人工智能系统的逻辑推理。

逻辑推理的历史

逻辑推理可以追溯到古希腊,亚里士多德的三段论(syllogisms)为古典逻辑奠定基础。在中世纪,学者们完善这些理论,在17世纪,Leibniz的通用语言和演算推理器将逻辑与数学联系起来,预现代计算逻辑。19世纪,George Boole的布尔代数将逻辑转化为数学框架,为数字计算奠定基础。

20世纪开启现代逻辑,Russell & Whitehead的《数学原理》将复杂的逻辑系统形式化。到本世纪中叶,John McCarthy等人工智能先驱利用逻辑进行知识表示和自动定理证明,从而产生了逻辑编程和知识库。20世纪70年代引入非单调逻辑,使人工智能能够处理常识推理。20世纪80年代,逻辑推理与知识表示相结合,推动专家系统在现实世界中的应用。20世纪90年代,知识图谱兴起,为复杂的推理任务构建大量知识。

在21世纪,神经符号方法将深度学习与逻辑推理相结合,产生了DeepLo gic [Cingillioglu and Russo,2019]和SAT-Net [Wang et al.,2019]等工具。逻辑推理仍然是人工智能研究的基石,从哲学发展到现代计算。随着人工智能的发展,逻辑推理继续塑造智能系统,确保结构化、可解释和稳健的决策。

逻辑推理的类型

逻辑推理可以大致分为四种主要类型,每种类型都有不同的目的和应用:

  • 演绎推理:这种推理从一般原则或前提中得出具体结论。它遵循这样的规则:如果所有前提都是真实的,推理是有效的,那么结论也必须是真实的。例如,给定前提“所有苹果都是红色的”和“这个水果是苹果”,可以推断出“这个水果是红色的”。演绎推理是数学和形式逻辑等领域的基础,在这些领域中,确定性和严谨性至关重要。

  • 归纳推理:与演绎推理不同,归纳推理根据特定的观察或证据得出一般结论。虽然结论通常被认为是可能的,但它们并不能保证是正确的。例如,观察到到目前为止看到的所有天鹅都是白色的,可能会得出“所有天鹅都是白色的”这样的归纳结论。归纳推理广泛应用于科学发现和数据驱动的决策,其中模式和趋势是从经验数据推断出来的。

  • 溯因推理:这种推理形式寻求对一组观察结果的最合理的解释或原因,通常是在信息不完整的情况下。溯因推理在诊断任务和现实世界的问题解决中特别有用。例如,看到街上的湿点可能会让人推断“最近下过雨”。虽然溯因结论不确定,但它们为假设生成和不确定情况下的决策提供实际基础。

  • 类比推理:类比推理涉及在类似情况或领域之间进行比较以进行推断或解决问题。通过识别不同场景之间的相似之处,这种推理可以实现创造性的问题解决和知识迁移。例如,了解行星以椭圆轨道绕太阳运行可能会使人们类比地推断其他天体(如彗星)也表现出类似的轨道特征。类比推理在教育、设计和创新等领域尤其有价值。

逻辑推理数据集和基准

对于评估大语言模型(LLM)的推理能力至关重要。这些数据集可以根据其数据来源分为三类:

  • 基于规则的数据集:使用逻辑规则自动生成,从而实现大规模数据收集。然而,确保多样性对于避免重复模式和全面评估推理能力至关重要。

  • 专家设计的数据集:由域专家构建,确保高精度和准确性。虽然通常比众包语料库小,但它们的精心设计使它们对于深入的逻辑推理评估不可或缺。

  • 基于考试的数据集:源自标准化考试题目(例如中国国家公务员考试、LSAT、GRE),提供高质量、专家精心设计的大规模逻辑问题。这些数据集广泛用于评估现实世界场景中的推理能力。

下表是各种数据集:

自然语言推理(NLI)评估假设是否符合前提的逻辑,直接评估模型的推理能力。标签通常分为二元(蕴涵、非蕴涵)或三元(蕴涵、矛盾、中性)分类。一些数据集使用True和False标签。

机器阅读理解(MRC)通过要求模型根据给定的段落回答问题来评估逻辑推理。任务通常采用多项选择题、问题跨度提取或自由回答的形式,其中多项选择题问答由于其标准化而特别有效。

基准套件标准化评估并促进逻辑推理研究中的模型比较。

预训练语言模型(PLM)的逻辑推理能力评估

预训练语言模型(PLM)的快速发展,需要对其逻辑推理能力进行严格评估。以下分析四种推理范式——演绎、归纳、溯因和类比,同时分析评估方法和指标。

演绎推理

演绎推理是从一般前提得出具体结论,对于自动定理证明至关重要。尽管LLM在组合证明、标准基准和编码蕴涵关系等任务上表现良好,但它们在扩展推理、没有例子的假设子证明、概括和对句法变化的敏感性方面却举步维艰 [Saparov,2023;Yuan,2023;Ryb,2022]。

归纳推理

归纳推理从具体实例推广到更广泛的规则,对于假设生成和模式识别等任务至关重要。虽然Yang [2024b] 发现预训练模型可以作为有效的“推理器”,但Bowen [2024b] 发现预训练模型可以作为有效的“推理器”。[2024] 表明,即使是高级LLM在其符号设置中也难以完成简单的归纳任务。同样,Sullivan [2024] 表明,即使经过微调,Transformer模型也无法学习基本的逻辑原理,这表明归纳推理能力有限。

溯因推理

溯因推理寻求对观察现象最合理的解释,在法律和医学等领域至关重要。Del & Fishel [2023] 强调LLM在从不完整信息中生成合理假设时面临的挑战。在法律领域,Nguye [2023] 表明,尽管模型性能强劲,但模型在溯因推理方面仍举步维艰,凸显这一范式的复杂性。

类比推理

类比推理将未知信息与已知信息进行比较来推断未知信息,对于需要创造力和知识迁移的任务至关重要。Wijesiriwardene [2023] 引入ANALOGICAL,这是长文本类比推理的基准。他们发现,随着类比复杂性的增加,LLM难以识别类比对。Petersen & van der Plas [2023] 表明,模型可以用最少的数据学习类比推理,接近人类的表现。然而,Qi [2024] 质疑LLM是否真正依赖类比推理,发现提示中的随机示例通常可以实现与相关示例相当的性能。

总体分析和指标

Liu [2023b] 在LogiQA和ReClor等基准上评估GPT-4和ChatGPT,结果表明,虽然GPT-4的表现优于ChatGPT,但它们在处理分布外任务时都存在困难。Xu [2023] 介绍NeuLR数据集,并提出一个从六个维度评估LLM的框架:正确性、严谨性、自我意识、主动性、指导性和无幻觉。

评估逻辑推理的指标。准确度和F1分数等传统指标不足以评估逻辑推理。最近的研究引入细微的指标,例如一致性(对逻辑等效输入的不变性)、泛化(在分布外数据上的表现)和可解释性(推理步骤的清晰度)。Thatikonda [2025] 发现将BERTScore与传统指标相结合可以提高与人类判断的一致性。Liu [2024c] 提出一个衡量逻辑一致性的框架,表明BERTScore与人类排名的一致性比基于LLM的评估器(如GPT-4)更高。Gandarela [2024] 强调需要制定能够反映逻辑理论表达能力的指标,特别是在归纳推理中。

增强LLM的逻辑推理能力

增强LLM的逻辑推理能力仍然至关重要。一些核心策略有:以数据为中心的方法、以模型为中心的方法、外部知识利用和神经符号推理。

以数据为中心的方法

以数据为中心的方法通过利用策划的训练数据集来增强LLM的推理能力。在以数据为中心的方法中,数据集优化起了核心作用。在实践中,以数据为中心的方法通常涉及三种类型的数据集:专家精选的数据集、合成数据集和LLM提炼的数据集。

以模型为中心的方法

以模型为中心的方法,通过优化模型参数和解码策略来增强LLM的推理能力。对模型参数θ和解码策略S的联合优化,实际实现可分为:

  • 指令微调:优化θ。
  • 强化学习:优化θ。
  • 推理-时间解码:优化S。

以模型为中心的方法,专注于通过优化模型的内部机制和解码策略来直接提高模型的推理能力,使它们与以数据为中心的方法相辅相成。

指令微调

指令微调(IFT)通过对特定于任务的指令进行监督学习来调整LLM。例如,Liu [2023c] 设计涵盖不同抽象和复杂程度的多粒度指令。同样,Feng [2024] 通过复制形式演绎推理过程,IFT模型可以模拟逻辑求解器。此外,Xu [2024a] 通过Injection(注入符号知识)和Infusion(平衡符号和NL推理)实现两阶段符号微调。

为了克服IFT的过拟合限制,Wang [2024b] 使用IFT强制进行事实/反事实路径之间的对比学习。此外,Wang [2024a] 使用程序引导学习框架和特定于逻辑的架构调整增强Llamas。

最近,Muennighoff [2025] 提出s1,通过IFT在1,000个制作的长CoT样本上实现测试-时间规模化。结合预算强制技术,它显著增强Qwen2.5-32B-Instruct模型的推理能力,允许在不进行测试时间干预的情况下推断其性能。

强化学习

强化学习(RL)已成为优化大语言模型(LLM)的关键,特别是自从人类反馈强化学习(RLHF)取得突破以来。Jiao [2024] 利用RL进行基于规划的推理优化,而Xi [2024] 开发R3,通过仅结果监督实现过程监督效益。

OpenAI-o1 [OpenAI, 2024] 中大规模RL的成功激发大量研究。强化学习算法训练o1式模型来增强思维链(CoT)推理,解决公式化输出和有限的长篇推理等问题。例如,Zhao [2024] 将CoT指令微调与蒙特卡洛树搜索(MCTS)解码相结合,以进行多路径推理探索。相比之下,Zhang [2024] 使用MCTS生成代码推理数据,用于指令微调(IFT)和直接偏好优化(DPO)。

DeepSeek-R1 [DeepSeek-AI,2025] 取得重大突破,它开创一种强化学习策略来增强逻辑推理。DeepSeek-R1-Zero纯粹通过强化学习进行训练,没有IFT,表现出令人印象深刻的推理能力,但在可读性和语言一致性方面面临挑战。为了解决这个问题,DeepSeek-R1在RL之前引入最小的长CoT IFT数据作为冷启动,从而实现可用性和推理性能之间的平衡。通过RL迭代合成高质量的推理数据,DeepSeek-R1克服人类注释施加的限制,解决机械响应、重复模式和长链推理不足等问题。这种方法代表逻辑推理优化的潜在范式转变,突破LLM在结构化推理任务中可以实现的界限。

推理时间解码

推理-时间期间的逻辑推理增强方法分为推理时间规模化和受限解码。

推理时间规模化采用计算增强而无需参数更新。一种常见的方法是使用结构化输出和模块化工作流进行解码。GoT [Lei et al., 2023] 创建结构化推理节点以改进复杂的多步骤逻辑推理。类似地,逻辑链 [Servantez et al., 2024] 为法律推理引入分解-重组结构。在其他情况下,研究人员设计更复杂的模块化工作流程以获得更好的性能 [Creswell et al., 2023; Malon et al., 2024]。

另一种推理时间规模化方法涉及刺激自主推理,引导LLM迭代地完善他们的答案。Maieutic提示 [Jung et al., 2022] 通过递归推理消除矛盾。同样,思维逻辑 [Liu et al., 2024a] 和DetermLR [Sun et al., 2024] 以迭代方式逐步接近答案。

另一方面,约束解码方法侧重于提高推理过程的可控性和可靠性。Neurologic [Lu et al., 2021] 强制谓词逻辑约束,而Formal-LLM [Li et al., 2024b] 集成自动机来约束规划生成。

外部知识利用

LLM在执行逻辑推理等复杂任务时,经常会由于幻觉而产生错误答案,因此有必要结合外部知识来帮助产生准确的答案。

Zayyad & Adi [2024] 和Yang [2023] 从数学证明工具Lean中提取数据,以帮助定理证明。相比之下,“逻辑查询思维”(LQOT)[Liu,2024b] 在集成知识图谱之前将复杂的逻辑问题分解为更简单的子问题。

在阅读理解中,Ouyang [2023] 构建超级图来解决复杂的上下文推理,而KnowRA [Mai,2025] 自主决定是否接受外部知识来协助文档级关系提取。

神经-符号方法

神经-符号混合方法,代表一个新兴的研究领域,旨在将深度学习的强大表示能力与符号推理的精确性和可解释性结合起来。

形式上,神经-符号混合系统,旨在优化神经模型M和符号求解器P(其中P代表符号推理过程),以最大化逻辑推理性能。优化过程涉及两个关键方向:

  • 改进M:包括改进模型的参数和解码策略,以产生既准确又与P兼容的符号表示。
  • 增强P:涉及提高符号求解器的处理能力。

通过联合优化M和P,神经-符号混合系统旨在利用神经网络和符号推理的优势来实现卓越的逻辑推理能力。值得注意的是,在早期的神经-符号流水线中,P通常被实现为固定的外部逻辑推理引擎,因此通常未经优化。然而,在高级实践中,LLM越来越多地被用来扮演P的角色,从而实现多样化的优化。

从根本上说,这些方法涉及使用LLM将问题转换为符号表征,并使用外部符号求解器解决这些问题。例如,在LINC [Olausson et al., 2023] 中,LLM将自然语言(NL)转换为一阶逻辑(FOL)表达式,并利用外部定理证明器进行符号演绎推理。

进一步的努力集中在改进NL-到-符号的翻译上。一种流行的方法是通过训练 [Yang et al., 2024a] 或解码策略 [Ryu et al., 2024] 直接优化翻译,而另一种则依赖于验证或纠正机制 [Yang et al., 2024a; Pan et al., 2023]。

在此基础上,最近的进展通过将LLM完全集成到推理过程中解决传统流水线的限制。逻辑智体(LA) [Liu et al., 2024a] 用规则引导的LLM推理链取代外部求解器,而LLM-TRes [Toroghi et al., 2024] 实现独立的可验证推理,而无需外部符号求解器。SymbCoT [Xu et al., 2024c] 完全通过LLM协调翻译、规划、求解和验证。Xu [2024b] 提出Aristotle,它通过三个LLM驱动的组件进一步系统化符号推理流水线:逻辑分解器、逻辑搜索路由器和逻辑解析器。

未来方向

将逻辑推理集成到大语言模型(LLM)中仍然是一项关键挑战,其特点是启发式性能与形式逻辑严谨性之间存在持续差距。该领域的三个尚未解决的紧张关系包括:

  • 鲁棒性-泛化性
  • 可解释性-性能
  • 评估严谨性

应对这些挑战需要努力的点:

  • 混合架构,动态集成神经和符号组件(例如可微分的定理证明器),以平衡可扩展性和精度。
  • 评估框架,对受扰动的逻辑语句(例如否定前提、交换量词)进行压力测试,以将推理与记忆分开。
  • 多模态推理以多种模态(文本、图像、代码)为基础,在增强鲁棒性和可解释性方面具有尚未开发的潜力。
  • 跨学科合作——利用形式逻辑、认知科学和机器学习的见解——对于设计推理不确定性的系统至关重要。
© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号