问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

大模型之提示词工程原理:提示学习(prompt learning)

创作时间:
作者:
@小白创作中心

大模型之提示词工程原理:提示学习(prompt learning)

引用
CSDN
1.
https://blog.csdn.net/m0_56255097/article/details/141815046

提示词工程是大模型技术中的一个重要组成部分,它通过优化提示词的编写来提升模型的输出质量。本文将从历史发展、原理分析和实际应用等多个维度,深入探讨提示词工程的核心概念和实践方法。

一、提示词工程

在学习大模型技术时,我们经常被告知要写好提示词,因为好的提示词能直接影响到大模型的输出质量。但为什么不同的提示词会得到完全不同的结果?为什么会有提示词的出现?这些问题的答案需要从技术发展的历史脉络中寻找。

技术的出现是有先后顺序的,先有的提示词,再有的提示词工程;提示词工程是为提示词服务的,目的是如何写出一个更好的提示词。简单来说,就是将写提示词的经验总结成一种方法,这种方法就叫做提示词工程。

二、为什么会有提示词?

提示词的产生有其历史背景,虽然这个历史很短。我们知道,人工智能的发展经历了多个阶段,特别是OpenAI基于Transformer架构开发的GPT系列和谷歌发布的BERT模型,推动了AI技术的快速发展。

在GPT和BERT模型开发前期,由于参数量小,模型体量也小,直接的结果就是当时的模型训练成本比较低;因此,那时开发大模型主要以预训练和微调为主。这种方法被称为"预训练-微调范式"。

但直到GPT-3的出现,模型的参数量出现了爆炸式增长,从最初的上亿参数量增长到上千亿参数量。这时,"大模型"这个词出现了,它不仅意味着模型规模大、参数量多,也意味着模型的训练和微调成本直线上升。例如,GPT-3模型的训练成本据说达到了上千万美元。

从成本的角度来看,训练和微调模型不再是一个好的选择。因此,人们开始思考如何更有效地利用这些庞大模型的知识。经过研究发现,可以在不调整模型参数的情况下,通过少量样本或零样本的方式,让模型输出更好的结果。进一步的研究发现,对同一个问题使用不同的提示词会输出不同的结果。这种现象被称为"提示学习"。

提示学习是一种基于实验发现的现象,它能够在不改变模型参数的前提下,让模型拥有更高的输出质量。基于提示学习这个理论就产生了提示词,而怎么把提示词写的更好就有了提示词工程。

三、不同提示词产生不同效果的原因

在预训练-微调阶段,大模型需要通过训练数据不断调整模型的参数来达到最优解。而提示学习阶段,则是让任务去适配大模型。我们用一个情感分类任务的例子来说明为什么提示词不同,效果也不同:

问题 Q = “这个电影不错”
加上提示词模板P_Q = “这个电影不错,我很喜欢,因此这是一个X电影”。
这里的X就是大模型需要预测的结果,如果再把这个X加一个限定范围,比如A:无趣的,B:好玩的;这时大模型就可以轻易的判断出这是一个好玩的电影。
而不加提示词模板,模型给出的答案可能就千奇百怪,比如说这是一个难看的电影,这是一个糟糕透顶的电影,这是一个某某主演的关于某某事情的电影等等,都是有可能的。
而这就是为什么提示词工程中有些人会要求,写提示词要给大模型设定角色,背景,明确任务要求,限定任务范围等要求。

四、总结

不论是预训练-微调,还是提示词都是为了让模型表现的更好,为了发挥大模型庞大知识能力的一种方式,而提示词是一种成本相对较低的方式。而对使用者来说,使用第三方模型是根据Token进行计费的,而更长的提示词意味着更多的Token,因此怎么写出一个简短又高质量的提示词就是一个需要考虑的问题。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号