AutoGPT 从安装到使用
AutoGPT 从安装到使用
AutoGPT 是一款基于 GPT-4 的自主代理工具,能够自动执行一系列复杂的任务。本文将详细介绍 AutoGPT 的安装和使用方法,包括源码下载、OpenAI API Key 的申请、Poetry 的安装、AutoGPT 的部署以及使用本地模型的替代方案。
AutoGPT 介绍
官方对其的描述:
AutoGPT is a powerful tool that lets you create and run intelligent agents. These agents can perform various tasks automatically, making your life easier.
介绍:
AutoGPT 是一种基于 GPT-4 的自主代理(autonomous agent),它能在不需要大量人工干预的情况下,自动执行一系列复杂的任务。AutoGPT 的工作原理是利用大型语言模型(如 GPT-4)的自然语言处理能力,结合自我反馈循环机制,从而实现任务的自动化处理。
一、下载源码
在某一处打开cmd窗口,输入
git clone https://github.com/Significant-Gravitas/AutoGPT.git
来克隆整个项目(首先确保安装了Git!)。
这项目有点大,可能要比较久的时间才能下好,耐心等会吧。
如果没有Git,或者其他原因,也可以直接点这里,在github网页中下载AutoGPT的源码,放到某个文件夹里。
如果github也打不开,可以在csdn上也上传有,在这里:https://download.csdn.net/download/mc_dudu233/89631338?spm=1001.2014.3001.5503
二、申请OpenAI的API Key
申请API Key的网址:https://platform.openai.com/account/api-keys
打开这个网页,登录(没有就注册)自己的账号,点击右上角创建一个新的APIKey。注意这个APIKey只会出现一次!记得复制保存!
我们直接点复制来复制生成的APIKey。
找到刚才下载的AutoGPT的源码,里面有个
autogpt
文件夹,点进去。
将里面的
.env.template
文件重命名为
.env
,并打开这个文件。将里面的
OPENAI_API_KEY
取消注释,并设置为之前复制的APIKey。
三、安装 Poetry
相信大家在这之前电脑上的python都没有装过Poetry,那么我们现在需要先安装Poetry才能进行下一步的配置。
Poetry要求Python 3.8+,建议大家直接使用python 3.11。
1.先安装 pipx
直接打开一个cmd窗口,输入
py -m pip install --user pipx
即可安装pipx。当然你要确保你的python带pip(现在默认都是带的),否则就自己先装好pip。
如果出现了如上所示的警告,还要将pipx的文件夹加入PATH环境变量中,否则无法直接在cmd调用pipx。
在cmd窗口中进入警告中提示的文件夹,然后输入
.\pipx.exe ensurepath
即可添加到环境变量中。
然后我们重新打开一个cmd窗口,输入
pipx
测试,完成!
2.再安装 poetry
在刚才的cmd窗口输入
pipx install poetry
即可安装。下载有点慢,耐心等一下吧!
这样就装好了!
四、部署 AutoGPT
我们打开一个cmd窗口(用刚才的也行),进入AutoGPT项目文件下的
autogpt
文件夹(和刚才配置APIKey的一样)。然后输入
.\autogpt.bat
会自动帮你安装所有的依赖软件包。
这个下载还是有点慢,我这里没挂代理下了一个小时左右,取决于你的网速了。。。
到这一步安装就完成了,现在进入的是CLI(命令行)模式。在命令行中输入你想要解决的问题,他就会自动帮你解决!以下是示例,正在不断帮我们请求API思考问题。
输入
.\autogpt.bat serve
可以开启网页模式,默认访问页面为
http://127.0.0.1:8000
,打开网页如下所示。打开后登录即可使用!
五、采用本地模型
OpenAI的限制较多,如不能使用国内的银行卡支付,导致无法使用。且及时有国外的银行卡,每次调用API的费用也较高。因此,我们可以采用本地模型,解决以上的问题。AutoGPT提供了Llamafile这个本地语言模型的调用,因此我们可以采用该模型。
关于改模型的介绍在这:https://github.com/Mozilla-Ocho/llamafile#readme
在
autogpt
文件夹下再开一个cmd窗口,输入
python ./scripts/llamafile/serve.py
来运行Llamafile的程序。此时它会自动下载必要的语言模型和exe文件。
为了加快下载的速度,我们可以开启代理,先下载Llamafile的语言模型文件(点这里下载)和这个exe文件(点这里下载)。下载好后将它们一同丢进
autogpt\scripts\llamafile
文件夹下,如下图所示。
然后再运行刚才的命令
python ./scripts/llamafile/serve.py
(如果有GPU,可以使用
python ./scripts/llamafile/serve.py --force-gpu
),可见模型已经加载完毕,web服务器运行在
127.0.0.1:8080
。
打开
http://127.0.0.1:8080
,发现网页已经可用,那么之前的配置就没问题。
再次打开前面所说的
.env
配置文件,找到
LLAMAFILE_API_BASE
取消注释。将
SMART_LLM
和
FAST_LLM
都设置为我们之前配置的模型
mistral-7b-instruct-v0.2
。
配置好后,像之前一样输入
.\autogpt.bat
来启动CLI模式的AutoGPT,并测试是否有回复,这里明显可以了!
它会一步步的来解决这个问题,输入
y
运行执行它下一步的命令。
告诉你每一步的作用和下一步的计划。
最终给出令人满意的结果。