本地离线模型搭建指南-中文大语言模型底座选择依据
创作时间:
作者:
@小白创作中心
本地离线模型搭建指南-中文大语言模型底座选择依据
引用
CSDN
1.
https://blog.csdn.net/Master_Shifu_/article/details/139903072
搭建一个本地中文大语言模型(LLM)涉及多个关键步骤,从选择模型底座,到运行机器和框架,再到具体的架构实现和训练方式。以下是一个详细的指南,帮助你从零开始构建和运行一个中文大语言模型。
本地离线模型搭建指南将按照以下四个部分展开:
- 中文大语言模型底座选择依据
- 本地运行显卡选择
- RAG架构实现
- LLaMA-Factory训练框架及工具
1 中文大语言模型底座选择依据
在选择中文大语言模型(LLM)的底座时,可以参考以下几个关键因素:
1.1 模型规模与参数
根据具体应用场景选择不同规模的模型。比如:
- ChatGLM系列:包含6B参数的模型,适合中小规模应用,且支持商业用途。
- LLaMA系列:提供7B、8B、13B、33B和70B等多种规模,部分版本可商用。
- Baichuan系列:提供7B和13B参数的模型,适合需要较大规模的应用。
- Qwen系列:提供7B、14B、72B和110B参数的模型,支持较长的上下文长度,适合复杂场景。
- BLOOM:从1B到176B-MT,多种规模选择。
- Aquila系列:包括7B和34B参数版本。
- InternLM系列:从7B到20B参数,支持代码应用。
- Mixtral、Yi、DeepSeek、XVERSE等:提供多种参数规模,适合不同应用需求。
常见底座模型细节概览:
底座 | 包含模型 | 模型参数大小 | 训练token数 | 训练最大长度 | 是否可商用 |
|---|---|---|---|---|---|
ChatGLM | ChatGLM/2/3 Base&Chat | 6B | 1T/1.4 | 2K/32K | 可商用 |
LLaMA | LLaMA/2/3 Base&Chat | 7B/8B/13B/33B/70B | 1T/2T | 2k/4k | 部分可商用 |
Baichuan | Baichuan/2 Base&Chat | 7B/13B | 1.2T/1.4T | 4k | 可商用 |
Qwen | Qwen/1.5 Base&Chat | 7B/14B/72B/110B | 2.2T/3T | 8k/32k | 可商用 |
BLOOM | BLOOM | 1B/7B/176B-MT | 1.5T | 2k | 可商用 |
Aquila | Aquila/2 Base/Chat | 7B/34B | - | 2k | 可商用 |
InternLM | InternLM/2 Base/Chat/Code | 7B/20B | - | 200k | 可商用 |
Mixtral | Base&Chat | 8x7B | - | 32k | 可商用 |
Yi | Base&Chat | 6B/9B/34B | 3T | 200k | 可商用 |
DeepSeek | Base&Chat | 1.3B/7B/33B/67B | - | 4k | 可商用 |
XVERSE | Base&Chat | 7B/13B/65B/A4.2B | 2.6T/3.2T | 8k/16k/256k | 可商用 |
1.2 训练数据与Token数
不同模型经过不同规模的数据训练,影响其在特定任务上的表现:
- ChatGLM:经过1到1.4T的中英文标识符训练,适合中文问答和对话。
- LLaMA:经过1T到2T的训练。
- Baichuan:训练数据在1.2T到1.4T之间。
- Qwen:训练数据量高达2.2T到3T,支持复杂任务。
- BLOOM:经过1.5T的训练。
- XVERSE:训练数据量达2.6T到3.2T。
1.3 上下文长度支持
根据应用需求选择支持较长上下文长度的模型:
- ChatGLM2-6B:上下文长度扩展到32K。
- Qwen:支持8K到32K的上下文长度。
- Mixtral、Yi、DeepSeek:支持200k到256k的上下文长度。
1.4 商业用途许可
确保所选模型允许商业用途:
- ChatGLM、LLaMA、Baichuan、Qwen、BLOOM、Aquila、InternLM、Mixtral、Yi、DeepSeek、XVERSE等模型均允许商业用途。
1.5 垂直领域微调与应用
考虑模型在特定领域的微调效果:
- 医疗、法律、金融、教育、科技、电商、网络安全、农业等领域的垂直应用。
1.6 具体模型推荐
以下是一些具体的模型推荐及其特点:
- ChatGLM系列:适合中文问答和对话,经过中英文双语训练,支持商业用途。
- LLaMA系列:提供多种规模,部分版本适合商用。
- Baichuan系列:适合需要较大规模训练的应用。
- Qwen系列:支持复杂任务和长上下文长度。
- InternLM系列:适合代码相关应用。
更多详细信息和具体模型的链接,请访问Awesome-Chinese-LLM项目。
下一篇介绍:本地离线模型搭建指南-本地运行显卡选择
热门推荐
哺乳期能吃多少个鸡蛋
如何打造一次难忘的家庭旅行
学生宿舍斗殴学校有责任吗?
曲奇饼干的制作工艺与配方解析
拔智齿800/1000社保卡报销多少?可以报50-60%比例/附报销流程
最具魅力的恋爱动漫:观众心中的经典之选
李贺《金铜仙人辞汉歌》:天若有情天亦老
系统软件开发如何收费的
欧洲国家殖民地遍布全世界,为何在二战后全部放弃了?原因有两个
车窗升降失灵?软件升级或许能帮你恢复
跟着专家学习,根据9种中医体质调理亚健康!(下)
1493型雷达,脉冲多普勒第一,歼11B的标配,到底有多强悍?
香港故宫文化博物馆举办“流動的盛宴——中國飲食文化”展览
如何充分利用楼梯下方空间?这样的设计有哪些优势?
2025年1月份制造业PMI为49.1%
基于硅光子功率放大器的近2W可调谐激光器
LCD行业分析:已成显示面板主流 海外产能清退加速 中国大陆成全球最大生产地
人工智能大会2024:开启人形机器人之战
必看10部经典港剧推荐:重温那些让人难以忘怀的港剧标杆
澳门中医师梁伟衡:在横琴跨境执业有更多可能,期待未来开诊所
2024年国外博士申请全流程指南
越南汉语教育百年变迁:从繁荣到衰落再到复兴
上班的意义不是工资,而是有规律的生活和稳定的社交圈
债市新常态!这场论坛大咖云集,纵论固收市场
债市何时修复?普通投资人如何应对?
瓷砖防水处理 贴瓷砖前要注意做防水
公元9世纪,基辅罗斯公国对俄罗斯文化有什么改变?
网贷逾期一天怎么办?七大实用解决方案帮你全额还清
学生票购买指南:优惠条件、变更区间、使用次数等全攻略
长期服西格列汀优缺点