AI大模型部署实战:硬件篇
创作时间:
作者:
@小白创作中心
AI大模型部署实战:硬件篇
引用
CSDN
1.
https://blog.csdn.net/John_Lenon/article/details/141174878
最近一直在研究如何部署属于自己的AI大模型,类似于钢铁侠中的机器人管家J.A.R.V.I.S。在部署过程中遇到了不少问题,因此决定写一篇总结,希望能为有类似需求的读者提供一些参考。
硬件要求
总体来说,大模型对硬件的要求还是相对较高的。以Llama3.1为例,它有三个尺寸:8B(中杯)、70B(大杯)和 405B(超大杯)。其硬件要求如下:
- RAM:Llama 3 8B至少需要16GB,Llama 3 70B至少需要64GB或更多。
- GPU:需要具有至少8GB VRAM的强大GPU,最好是支持CUDA的NVIDIA GPU。
- 磁盘空间:Llama 3 8B约为4GB,而Llama 3 70B超过20GB。
此外,还需要满足以下软件要求:
- Docker:ollama依赖Docker容器进行部署。
- CUDA:如果使用NVIDIA GPU,则必须安装并配置相应的CUDA版本。
对于一般的家用电脑来说,很难同时满足这些要求。因此,我选择了一台退役服务器来部署AI大模型。
服务器选型
选择退役服务器的最大优势就是性价比非常高,硬件成本相对较低。我选择的是DELL的PowerEdge R730XD,配置如下:
- CPU:采用E5 26系列v3、v4 CPU,支持双路配置。如果不用顶级CPU,价格非常实惠。
- 内存:支持DDR4 ECC内存,有24个内存插槽。在双处理器配置下,RDIMM内存最大容量为768GB,LRDIMM内存最大容量可达3,072GB。
- 硬盘:前置3.5寸硬盘位12个,中置扩展位4个,后置2.5寸硬盘位2个,总计可扩展18个硬盘位。我只使用了一个3TB硬盘。
- GPU扩展:R730XD服务器有三个PCI-E插槽。其中,Raiser2位置可以安装一张全高双槽GPU,Raiser3位置是单槽,Raiser1位置是X8,扩展能力有限。这一点需要注意,如果需要扩展更多GPU,建议选择R730。
使用心得
在使用过程中,我发现:
- 功耗:如果满载运行,功耗大约在250W-300W之间。如果不使用GPU,双CPU运行时功耗大约在160-200W之间。
- GPU扩展:我选择了一张24GB的GPU,对于单用户使用来说可能已经足够。但如果需要扩展更多GPU,就需要特别注意服务器的扩展能力了。
总结
如果不在意功耗,选择退役服务器部署AI大模型还是性价比非常高的。在选择服务器时,需要特别注意GPU的扩展能力。对于CPU、内存和硬盘等其他硬件,R730XD的配置已经相当充裕。
热门推荐
中年男性如何摆脱“油腻感”?从外貌到穿搭的全方位指南
国学集萃丨“四书五经”之《大学》
英语中"例如"的多种表达方式及用法详解
手机震动设置完全指南:从系统设置到第三方应用
外行人如何在一个月时间内成为可以开发 APP的独立制作人
生物不好怎么提高成绩 有什么技巧
关于如何识别汽车型号的方法指南
黄金在制造领域中的应用有哪些?这些应用如何影响黄金的市场需求?
高考最后四个月:精准发力,高效提分
从“知道”到“做到”:普通人实现爆发式成长的3个底层逻辑
治疗视力模糊的方法
DeepSeek+Stable Diffusion高质量图像生成
和债权人怎么协商解除担保合同呢
Web如何精确时间
网站图片要多少像素?一文详解不同场景下的最佳实践
葡萄黄叶的原因和处理办法
日本股市交易规则全解析
【剪头发前必读】5大沟通技巧,发型师即刻剪出你要求!
人造鸡蛋泛滥,成本只要1毛钱?该如何分辨?
为什么服务设计这么重要?从客户满意到企业竞争力,这一环节决定了成败!
交换机如何连接交换机
省钱or搞钱?年轻人的“二手人生”全都要
二手车短视频内容创作指南:从策划到推广的全方位解析
六大策略助力农村银行网点提升客户满意度和效能
SFP+光模块与交换机四种搭配使用方式
卫衣穿搭完全指南:从基础款到高级搭配
Excel表格计算利润的三种方法及实用技巧
如何准确理解和计算利润数值并进行分析?利润计算的方法和应用有哪些?
瑶族婚俗:国家级非物质文化遗产的独特魅力
雪茄保存方法及时间