问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

"退一步"提示法:通过抽象提升大语言模型推理能力

创作时间:
作者:
@小白创作中心

"退一步"提示法:通过抽象提升大语言模型推理能力

引用
51CTO
1.
https://www.51cto.com/aigc/2037.html

大语言模型(LLMs)在处理复杂推理任务时常常面临挑战。为了解决这一问题,研究者们提出了一种名为"退一步"提示(STEP-BACK PROMPTING)的技术。这种方法通过引导模型进行抽象思考,从具体细节中提炼出高层次概念和基本原理,从而显著提升了模型在多个领域的推理能力。

1. 引言

自然语言处理(NLP)领域正在经历一场由基于Transformer模型的大语言模型(LLMs)引发的革命。尽管这些模型在许多任务上取得了显著进展,但复杂的多步推理仍然是一个挑战。受到人类在面对复杂任务时往往会退一步,通过抽象得出高层次原则来指导解决过程的启发,研究者们提出了"退一步"提示方法。

2. 退一步 PROMPTING

"退一步"提示方法的动机源于这样一个观察:许多任务包含大量的细节,而这让大语言模型很难提取出相关信息来解决这些任务。例如,对于一个物理问题"如果温度增加2倍,体积增加8倍,理想气体的压力P会发生什么变化?",直接对问题进行推理可能会偏离理想气体定律的基本原理。同样,对于"埃斯特拉·莱奥波德在1954年8月至1954年11月期间就读于哪所学校?"这样的问题,由于时间范围的具体限制,直接回答也非常困难。


图 2:展示了通过概念和原理指导的“退一步”提示法(STEP-BACK PROMPTING)中的抽象和推理两个步骤。

研究者们将"退一步"问题定义为从原始问题中提取的、更高抽象层次上的问题。例如,与其直接询问"埃斯特拉·莱奥波德在特定时间段内就读于哪所学校",不如提出一个"退一步"问题,例如询问她的"教育背景",这是一个包含原始问题的高层次概念。在这种情况下,回答"埃斯特拉·莱奥波德的教育背景"这一"退一步"问题,将提供所有必要的信息来推理"她在特定时期就读于哪所学校"。

"退一步"提示方法包括两个简单的步骤:

  • 抽象:与直接回答问题不同,我们首先提示大语言模型提出一个关于更高层次概念或原理的泛化的"退一步"问题,并检索与该高层次概念或原理相关的事实。
  • 推理:基于有关高层次概念或原理的事实,大语言模型可以推理出原始问题的解决方案。

3. 实验设置

研究者们在多个具有挑战性的任务上进行了"退一步"提示方法的实证研究,这些任务涉及复杂推理的领域,如STEM、知识问答和多跳推理。具体来说,他们使用了以下数据集:

  • STEM:MMLU高中物理和化学部分、GSM8K
  • 知识问答(Knowledge QA):TimeQA、SituatedQA
  • 多跳推理(Multi-Hop Reasoning):MuSiQue、StrategyQA

研究者们使用了最先进的大语言模型,包括经过指令微调的PaLM-2L、GPT-4和Llama2-70B。评估指标采用了PaLM-2L模型进行的评估,其中使用少样本示例来提示模型识别目标答案和模型预测之间的等价性。

4. 实验结果

研究者们在多个任务上观察到了显著的性能提升。例如,在MMLU物理和化学上,"退一步"提示使PaLM-2L的性能分别提高了7%和11%;在TimeQA上提高了27%;在MuSiQue上提高了7%。这些结果表明,"退一步"提示方法在处理复杂任务时非常有效。

5. 结论

"退一步"提示方法通过抽象帮助大语言模型减少中间步骤中的错误概率,显著提升了模型在多个领域的推理能力。这一方法不仅适用于特定领域的推理任务,也适用于知识问答和多跳推理等需要复杂推理能力的任务。未来的研究可以进一步探索如何优化抽象过程,以及如何更好地结合检索增强等技术,以进一步提升模型的推理能力。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号