本地离线模型搭建指南:如何选择适合的显卡
创作时间:
作者:
@小白创作中心
本地离线模型搭建指南:如何选择适合的显卡
引用
CSDN
1.
https://blog.csdn.net/master_shifu_/article/details/139902029
随着人工智能技术的快速发展,越来越多的开发者开始尝试在本地搭建中文大语言模型。然而,如何选择合适的显卡和配置,以确保模型能够稳定运行,成为了许多开发者面临的问题。本文将为你提供详细的指导,帮助你从零开始构建和运行一个中文大语言模型。
2.1 适合消费级别显卡运行的模型参数大小
- 大小为6B或7B,部分8B的模型,可以在消费级别的显卡上运行。显存建议8G起步,否则会出现模型加载不成功的问题。
- 这些模型参数大小同样也可以在CPU上远行,但聊天文字生成速度只有同类型显卡的1/5-1/10。CPU配置最低建议16核心,32G内存。
2.2 推荐消费级别显卡
- NVIDIA GeForce RTX 4060 至 4090 系列,显存12GB起步。
- NVIDIA T4卡也可以运行本地模型。
2.3 性能比较
- T4卡:服务器级别GPU计算图形显卡,本地运行模型推荐12G起步,大致对等评估,T4卡16G的性能和4070T16G显存性能一致。
- RTX 4060-4090 系列:消费级显卡,性能强劲,显存从12GB到24GB不等,适合高性能计算和深度学习任务,本地运行模型推荐12G起步。
2.4 消费级显卡配置建议
- 优先选择单卡配置:单卡配置简单,易于管理。
- 双卡配置:消费级台式机最多支持两张显卡集火(NVIDIA SLI或NVLink)。
若需突破双卡限制:
- 请查阅并考虑使用华硕 ESC8000-G4 服务器配置,该服务器支持多达8张显卡的集火,适用于更大规模的计算需求。
2.5 本地部署模型实践运行配置
底座 | 包含模型 | 模型参数大小 | 机器配置 | 显存大小 | 是否可运行 |
|---|---|---|---|---|---|
ChatGLM | ChatGLM3-6B | 6B | CPU 16核心 32G内存 | 无 | 可以 |
ChatGLM | ChatGLM3-6B | 6B | 显卡4070Ti | 16G | 可以 |
ChatGLM | ChatGLM4-9B | 9B | 显卡4070Ti | 16G | 可以 |
LLaMA | Chinese-LlaMA2 | 7B | 显卡3060Ti | 8G | 可以 |
Qwen | Qwen1.5 | 7B | 显卡4070Ti | 16G | 可以 |
注意:以上运行均值单独运行模型后是否可以运行以及显存是否够用,如果后期做RAG架构,ChatGLM4-9B模型在16G显存上不够,刚好差200M的显存,所以如果买新显卡,如果预算够,显存是第一优先考虑选项,之后才是显卡的计算能力。
2.6 相关模型链接
- ChatGLM
- ChatGLM2-6B
- ChatGLM3-6B
- Chinese-LLaMA-Alpaca
- Chinese-LLaMA-Alpaca-2
- Chinese-LlaMA2
- Llama2-Chinese
- Qwen/Qwen1.5
选择适合的显卡和配置,可以在本地高效地运行这些中文大语言模型。
热门推荐
如何进行劳动仲裁让补交社保
macos双系统怎么切换的简单介绍
智慧党建:新时代党建活动的创新之路
用舞狮促进中外文化交流(侨界关注)
以艺会友讲述中国故事,中福会少年宫小伙伴艺术团以“儿童外交”搭建友谊桥梁
科普:解放军的军衔知识大全
一文探究PRP在膝骨关节炎治疗中的应用进展
5人聚餐,一盘菜放倒3人!蕨菜致癌不敢吃?这样“吃蕨”才安全
金星:地球的“姊妹星球”与神秘面纱
Excel表格切换技巧:十种方法快速切换工作表
随机梯度下降算法在深度学习中的应用与优化策略
灭定业真言的功德和作用
应届毕业生买票还能享受学生优惠吗?回复来了
HTTP错误代码505:原因分析与解决方案
高良姜与干姜,全面解析其区别
干姜可以代替高良姜吗
2024年最新全国河流湖泊矢量数据
注意!鸡蛋主要抽检5类20多种药,有6种药物是严禁检出来
山药汤的做法大全家常(春夏季节交替,建议多喝八道山药汤)
一寸管到底是25还是32?管道尺寸与材料选择全解析
惠州广济医院深度解析医疗费用的透明与合理![2024年更新]
事业单位干部如何才能成为机关公务员?
一夫三妻:古代社会的多夫多妻现象研究
中国历史上的一夫多妻制与一妻多夫制
银黄颗粒能否用于治疗急性扁桃体炎?
吃麻辣烫的危害有哪些
因为它,我国面包上了日韩进口 “黑名单”!你买的面包里有吗?
为什么基于“恐惧”情绪的品牌表达能令消费者印象深刻?
婚前财产的理财与法律问题详解
车撞电瓶车怎么报警