问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

Windows 环境部署 ChatGLM2-6b 入门教程

创作时间:
作者:
@小白创作中心

Windows 环境部署 ChatGLM2-6b 入门教程

引用
CSDN
1.
https://m.blog.csdn.net/yanceyxin/article/details/138202040

ChatGLM2-6B是智谱AI及清华KEG实验室发布的中英双语对话模型,它是 ChatGLM-6B 的第二代版本。主要特点如下:

  • 性能提升:ChatGLM2-6B 在初代模型的基础上进行了全面升级,使用了 GLM 的混合目标函数,并经过了 1.4T 中英标识符的预训练与人类偏好对齐训练。在多个数据集上的性能相较于初代模型有了显著提升,例如在 MMLU 上提升了 23%,在 CEval 上提升了 33%,在 GSM8K 上提升了 571%,在 BBH 上提升了 60%。

  • 更长的上下文处理能力:利用 FlashAttention 技术,ChatGLM2-6B 的上下文长度从 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度进行训练,这允许了更多轮次的对话。

  • 高效的推理速度:基于 Multi-Query Attention 技术,ChatGLM2-6B 拥有更高效的推理速度和更低的显存占用。与初代模型相比,推理速度提升了 42%,在 INT4 量化下,6G 显存支持的对话长度从 1K 提升到了 8K。

  • 开放的协议:ChatGLM2-6B 的权重对学术研究完全开放,并在获得官方书面许可后允许商业使用。

  • 部署和使用:ChatGLM2-6B 支持在多种硬件和软件环境下部署,包括 GPU 和 CPU 环境。模型也可以通过量化来减少对硬件资源的需求。

  • 模型量化:模型提供了不同精度的版本,包括 FP16、INT4 等,以适应不同的部署需求和硬件限制。

  • 多卡部署:如果用户有多个 GPU,ChatGLM2-6B 支持模型在多张 GPU 上进行切分和部署,以解决单张 GPU 显存不足的问题。

  • 开源社区:ChatGLM2-6B 旨在与开源社区共同推动大模型技术的发展,并鼓励开发者遵守开源协议。

  • 模型微调:提供了使用 P-Tuning v2 对 ChatGLM2-6B 进行参数微调的方法,以适应特定的应用场景。

  • 模型架构:ChatGLM2-6B 采用了 Prefix Decoder-only 架构,综合了单项注意力和双向注意力的优点。

  • 模型容量和多轮对话能力:虽然 ChatGLM2-6B 在多维度上有所提升,但相比于更大容量的模型,其在长答案生成和多轮对话场景下可能存在一定的局限性。

  • 模型开源信息:模型的代码和权重已在 GitHub 和 ModelScope 等平台上开源,供学术研究和商业使用。

代码参考

目前在git上已经获星15.5k,算是一款比较火爆的开源中英文对话模型。
git地址:https://github.com/THUDM/ChatGLM2-6B

Windows平台搭建部署ChatGLM2-6b过程

  1. 代码下载:
git clone https://github.com/yanceyxin/ChatGLM2-6B.git
  1. cd 到 ChatGLM2-6B文件目录,打开README.md,解读配置过程,根据README.md进行部署;

  2. 激活到自己的配置的conda虚拟环境:

conda activate deeplearning
  1. 在 ChatGLM2-6B文件目录下,使用 pip 安装依赖:
pip install -r requirements.txt

其中 transformers库版本推荐为4.30.2,torch推荐使用 2.0 及以上的版本,以获得最佳的推理性能。【该过程相对比较慢,即使设计科学上网也要一段时间】

  1. 报错了:不能安装“TBB”,查资料解决吧。查找资料,是给ananconda 升级 mkl 包的错误,删掉
    Anaconda3\Anaconda3\Lib\site-packages

    TBB-0.2-py3.11.egg-info
    文件,重新
    pip install -r requirements.txt
    ,即成功;

  2. 安装成功

  3. 根据自己的设备能力修改demo中模型量化精度,用GPU可以选择低成本模型,修改如下代码为int4精度;

model = AutoModel.from_pretrained("THUDM/chatglm2-6b-int4", trust_remote_code=True).cuda()
  1. 当前目录下用Python运行web_demo.py,接近4G数据,又是漫长的下载等待时间,即使科学上网也要相对长的时。放弃,选择手动下载,如步骤8中。

  2. 建议可以手动下载模型,根据自己本地设备的能力选择相应精度的模型,放到源码相应目录里。网址:https://huggingface.co/THUDM/chatglm2-6b-int4/tree/main

  1. 在文件目录新建目录
    THUDM\chatglm2-6b-int4
    ,将手动下载的模型放到里。

demo使用

命令行版cli_demo.py

(1)打开
cli_demo.py
文件,修改模型为精度为int4,对应着上一步新建的模型目录。

(2)启动demo,运行:

python cli_demo.py

;又报错了,提示没有
readline

(3)安装readline:

pip install readline

,依旧报错,查资料,遇到这个问题是因为尝试在Windows环境中安装
readline
模块,但
readline
是一个主要用于Unix-like系统的库,不原生支持Windows。Python在Windows上的标准安装包含一个名为
pyreadline
的替代模块,该模块旨在模仿
readline
的一些功能。

(4)安装pyredline:

pip install pyreadline

,安装成功。

(5)将文件
cli_demo.py

readline
修改成
import pyreadline

(6)继续启动demo:

python cli_demo.py

,进行如下图对话,成功💪,GPU版本AI回答还算比较快。

web版本web_demo.py

(1)同样的,修改
web_demo.py
中模型精度为int4。

(2)启动demo:

python web_demo.py

;又报错,提示:
AttributeError: 'Textbox' object has no attribute 'style'. Did you mean: 'scale'?
,查资料gradio版本太高,卸载当前版本,安装旧一点的版本,命令:

pip uninstall gradio、pip install gradio==3.50.0
```。

(3)启动demo:
```bash
python web_demo.py
```;在浏览器弹出如下界面。

![](https://wy-static.wenxiaobai.com/chat-rag-image/1892121824630823336)

(4)但公网无法访问,如果公网想访问,修改
web_demo.py
最后一行代码,将
share=False
修改为
share=True
。

![](https://wy-static.wenxiaobai.com/chat-rag-image/16761549388113796071)

(5)重新启动demo:
```bash
python web_demo.py
```,试用,如下,成功💪,但默认启动项目会自动从线上远程下载模型文件,能正常启动,但也无法形成对话;还是老实用命令行demo吧。

![](https://wy-static.wenxiaobai.com/chat-rag-image/3724256026533410466)

### web版本web_demo2.py

(1)该版本是启动基于 Streamlit 的网页版 demo,项目README.md中介绍该版本的网页版demo更流畅。

(2)修改web_demo2.py中模型路径为本地int4模型路径
THUDM\chatglm2-6b-int4
。

(3)启动demo:
```bash
streamlit run web_demo2.py
```,在浏览器中出现如下,进行试用对话,成功💪;但好像智商一般,看来int4的模型精度还是不太行,只能进行简单问题的对话。
© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号