问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

如何使用AMD显卡在本地运行大语言模型

创作时间:
作者:
@小白创作中心

如何使用AMD显卡在本地运行大语言模型

引用
CSDN
1.
https://blog.csdn.net/LinWw_/article/details/143650834

随着大语言模型(LLM)的发展,越来越多的开发者希望在本地运行这些模型,以便更好地掌控数据安全、避免延迟、并利用自有硬件的计算能力。但是大多数 AI 模型训练和推理的框架通常对 NVIDIA 的 CUDA 提供支持,而 AMD 显卡的兼容性相对较弱。本文将介绍如何利用 ROCm 和 ollama 在本地运行大语言模型。

准备工作

确认自己的 AMD 显卡是否支持 ROCm

首先需要确认你的 AMD 显卡是否在 ROCm 的支持列表中。你可以访问 ROCm 官方文档 查看支持的显卡列表。

对于官方支持 HIP SDK 的显卡,只需要下载并安装 AMD 官方版本的 ROCm 和 Ollama 的官方版本就能直接使用。

本文主要是介绍对于官方不支持的显卡应该如何安装并使用 ROCm 和 ollama。

下载 ROCmLibs

下载对应显卡型号的压缩包

比如你的显卡是

AMD Radeon RX 6750 XT

型号是

gfx1031

,那么你就可以选择下载

  • gfx1031:

rocm gfx1031 for hip sdk 5.7 optimized with little wu logic and I8II support.7z

下载安装 ollama-for-amd

对于官方不支持的显卡才需要用这个版本,也能自己编译,官方支持的显卡只需要下载安装官方版本的就行了。

ollama-for-amd

下载完成后运行安装包一键安装完成,安装成功后运行 ollama

修改 ollama-for-amd

从 log 中可以看到 ollama 没有跑在显卡上,输出没有发现兼容的显卡


source=amd_windows.go:138 msg="amdgpu is not supported (supported types:[gfx1103])" gpu_type=gfx1031
source=gpu.go:386 msg="no compatible GPUs were discovered"

现在就需要用到之前下载的 ROCmLibs

你的显卡型号是

gfx1031

所以对应

rocm gfx1031 for hip sdk 5.7 optimized with little wu logic and I8II support.7z

打开软件安装目录,比如这是你的安装路径

C:\Users\lin\AppData\Local\Programs\Ollama\lib\ollama

  1. 将压缩包中的

rocblas.dll

替换

C:\Users\lin\AppData\Local\Programs\Ollama\lib\ollama\rocblas.dll

  1. 将压缩包中的

library

文件夹替换

C:\Users\lin\AppData\Local\Programs\Ollama\lib\ollama\rocblas\library

退出 ollama 并重新运行


source=types.go:123 msg="inference compute" id=0 library=rocm variant="" compute=gfx1031 driver=6.2 name="AMD Radeon RX 6750 XT" total="12.0 GiB" available="11.8 GiB"

就能在 log 中看到成功识别到显卡了

现在运行模型就能运行在显卡上了,速度也是快了

安装并运行模型

在ollama模型库上查看支持哪些模型

比如要安装运行qwen2

参考资料

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号