了解生成式 AI 的技术生态系统
了解生成式 AI 的技术生态系统
生成式AI正在以惊人的速度发展,其背后的技术生态系统也在不断完善。本文将为您详细介绍生成式AI的关键技术要素、技术堆栈以及企业应用中常见的疑虑。
学习目标
完成本单元后,您将能够:
识别有助于生成式AI快速发展的关键要素。
描述构成生成式AI技术堆栈的技术类型。
描述企业对生成式AI的常见疑虑。
增强生成式AI训练
生成式AI能在短时间内掌握很多技能,这种令人难以置信的进步速度主要归因于三个重要因素。首先是大量训练数据的可获性。如前一单元所述,互联网上10亿多的网页是写作的重要来源。但只有当您找到数据的使用方法时,数据才有用。这就是第二个重要因素:更好的训练。
正如您在人工智能基础知识中所学到的,研究人员设计的神经网络使用复杂的数学函数来训练AI模型。神经网络架构是一个不断发展的研究领域。2017年,谷歌研究人员发表了一篇关于训练大语言模型的颠覆性论文。他们提出了一种名为Transformer的新型AI架构。正如您所能想到的,这项研究的细节相当复杂。但为了(极大地)简化,该新架构能够识别单词之间的重要关系,无论它们在文本块中相距多远。即使在处理了大量单词之后,它也可以记住这一关系。
新型Transformer架构让我们意识到了生成式AI快速发展的第三个主要因素:计算能力。AI模型训练时需要通过强大的处理能力来执行数学运算。从历史上看,AI模型被设计成需要按顺序执行一系列计算。而Transformer架构则不同,它依赖于许多独立的并行计算。
因此,在一个计算机处理器执行第一个计算时,另一个处理器同时执行第二个计算。这被称为并行计算,并大大缩短了训练Transformer所需的时间。除此之外,近年来能够进行并行计算的处理器变得更加强大,种类也愈加丰富。
数据、架构和计算这三个因素已经融合在一起,为训练出能力极其强大的大语言模型创造了恰到好处的条件。其中最大的语言模型之一是GPT语言模型,它代表创成式预训练Transformer。换而言之,这是一个经过训练可以用来生成文本相关内容的模型。
新兴生态系统
现在,互联网上已经有数百个网站可以让您亲身体验生成式AI。当您访问其中一个网站时,实际上只是接触到了技术冰山的顶层。而这项技术有很多不同的来源。让我们来探索一下为大家带来令人惊叹的生成式AI体验所需的技术堆栈。
让我们在冰山的底层从计算硬件提供商开始。训练LLM需要大量的计算能力,即使训练的是Transformer。在完成对一个模型的训练后,在该模型的实际使用过程中处理各种请求也需要计算能力。从技术角度而言,您可以在任何计算硬件上训练AI模型,但擅长并行计算的处理器是理想选择。如今,在AI计算领域最知名的品牌是英伟达(Nvidia)。
接下来是云平台,使开发人员能够利用云部署模型中的计算硬件。开发人员可以为特定项目租用适当的计算时间,而这些平台可以在一个互联系统中高效地分配计算时间请求。谷歌、亚马逊、微软和甲骨文是该领域的主要技术提供商。
包括LLM在内的AI模型是下一层。这些模型是借助研究技术精心打造的,并使用公共和私人提供的数据进行训练。开发人员可以通过应用程序编程接口(API)连接到LLM,以便在自己的应用程序中充分利用NLP的强大功能。经过训练并可供使用的AI模型通常被称为基础模型。因为这些模型是通过API访问的,开发人员可以根据需要轻松地从一个基础模型切换到另一个。GPT4、Claude、Stable Diffusion和LLaMA是基础模型的几个例子。
下一层是基础设施优化,其目的是提供更高效、更高质量的模型训练所需的工具和服务。例如,一项服务可能提供精心打造出的数据集进行训练。另一项则可能提供分析手段来测试生成内容的准确性。此外,在这个阶段,可以根据专门的、专有数据对基础模型进行微调,以更好地满足特定公司的需求。这是AI生态系统中的一个繁忙领域,许多公司提供各种优化服务。
最后,我们又回到了冰山的一角:应用程序。例如,各种类型的开发人员都可以利用优化服务和基础模型来为他们的应用程序提供支持。由LLM驱动的独立工具,以及主流应用程序的各种插件陆续问世。
例如,过去几年来,这个蓬勃发展的技术公司生态系统以惊人的速度成长。一些公司将专注于一个特定领域。例如,在基础模型领域,有些公司会希望专注于训练新的、性能更佳的模型,以能够脱颖而出。其他公司将创建跨越技术堆栈多层的解决方案,为其应用程序打造专有LLM。
许多企业才刚刚开始探索AI对他们的意义。鉴于对AI技术前所未有的需求,各企业有大量机会在AI技术堆栈的多个层次上有所作为。
对生成式AI的常见疑虑
生成式AI将导致我们与计算机的交互方式发生很多变化。对于任何颠覆性技术来说,理解其局限性和令人担忧之处非常重要。以下是对生成式AI的几个主要疑虑。
幻觉:记住,生成式AI实际上是预测的另一种形式,预测有时会出错。生成式AI的预测结果与基于事实的预期反应不同,被称为幻觉。幻觉出现的原因有几个,比如训练数据不完整或有偏差,或者模型设计得不好。因此,对于任何由AI生成的文本,都要花时间验证下内容的真实性。
数据安全:企业可以在生成式AI生命周期的两个时间点共享专有数据。首先,在微调基础模型时。其次,当实际使用该模型处理带有敏感数据的请求时。提供AI服务的公司必须表明信任至关重要,并且数据将始终受到保护。
剽窃:用于图像生成的LLM和AI模型通常是利用可公开获取的数据进行训练的。模型有可能学习一种风格并复制该风格。开发基础模型的企业必须采取措施,在生成的内容中增加些变化。此外,他们可能需要根据内容创作者的要求整理训练数据以删除样本。
用户欺骗:现如今比以往更容易做到的是创建一个逼真的在线个人资料,并附带AI生成的图片。这样的虚假用户可以与真实用户(以及其他虚假用户)进行非常逼真的互动。这使得企业很难识别推广机器人程序内容的僵尸网络。
可持续性:训练AI模型需要巨大的计算能力,而进行数学运算的处理器需要强大的实际能力才能运行。随着模型变得越来越庞大,它们的碳足迹也会增加。幸运的是,一旦模型训练完成后,处理请求就不需要那么强大的能力了。而且,可再生能源的发展速度几乎与AI的普及速度相同!
总结
生成式AI能够帮助企业和个人完成各种基于语言的任务。大量数据的融合、更智能的AI架构和巨大的计算能力推动着生成式AI和AI生态系统不断发展。