问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

大模型训练指南:从预训练到结果评测

创作时间:
作者:
@小白创作中心

大模型训练指南:从预训练到结果评测

引用
CSDN
1.
https://m.blog.csdn.net/youmaob/article/details/142458640

大模型训练是一个复杂的过程,通常被分解为预训练、监督调优和对齐等阶段。本文将详细介绍大模型训练的各个方面,包括模型架构、训练数据、训练成本估算等内容。

一、模型架构

1.1 模型架构

虽然业内普遍采用的是Decoder架构,但在词表、向量化、注意力、神经网络等各层依然有比较大的差异。基于时间、资源等方面考虑,可以从主流开源的大模型中选择一款作为参考。流程走通之后,再修改模型架构。

比如训练中文常规的大语言模型,可以从下面的列表中选择:

  • 清华智谱的chatglm架构
  • 百川的Baichuan模型架构
  • 阿里的Qwen模型架构
  • 零一万物的0-1模型架构

1.2 模型参数量

理论上讲,最好选择可以承担的最大规模参数的模型。当然,从实验的角度考虑,可以优选小一点的模型,逐步扩大模型参数规模。比如,可以选择0.5B左右的参数量。

实际上,现在HuggingFace已经推出更小的参数规模,参考:SmolLM:一个超快速、超高性能的小模型集合。这些小模型的能力也不错:

二、训练数据

2.1 数据类型

初次训练通用的大模型,不需要包括翻译、代码、数学等专业知识的大模型。可以筛选掉这些数据。

2.2 数据量

根据数据和模型参数20倍比的关系,如果选择0.5B参数,则需要数据量:20*0.5B= 10B

换算成1000 Token/sample,则需要:10*1,000,000,000/1000=10,000,000 samples,即不少于1千万行。据说是越多越好。

2.3 数据来源

理论上讲,学习过程应该包括:百科,新闻、作文、小说、书籍、杂志、论文、中小学教材等。可以不包括古文、古诗、歌词、代码等。

三、训练成本估算

如果选择0.5B参数,10B训练数据。

0.5B参数,需要的显存大小可以估算:40*0.5= 20GB,单张4090可以训练。按单张4090卡进行训练。

计算量=0.5109101098=4*10^19

4090能力=83Tfloats = 83*10^12/s

训练时长:计算量/4090能力/GPU卡利用效率(0.3)/3600 = 446 hours

按租用4090一小时2.5元,预计成本1116元。如果使用多张卡,比如4张,时长在120小时左右。

四、结果评测

训练的结果可以使用多种大语言模型评测工具进行评测。下面是参考qwen2模型架构,使用0.5B参数,4.6B数据(900万行*512/行)进行预训练,未进行Chat调优的模型,训练时长为120小时。

五、学习资源推荐

为了帮助读者更好地学习大模型,本文还推荐了一些学习资源,包括:

  • AI大模型入门学习思维导图
  • 精品AI大模型学习书籍手册
  • 视频教程
  • 实战学习录播视频
  • 《中国大模型落地应用案例集》
  • GitHub海量高星开源项目
  • LLM大模型学习视频
  • 640份大模型行业报告(持续更新)

这些资源可以帮助读者快速入门大模型,并深入学习相关知识。读者可以根据自己的需求选择合适的学习资源,系统地学习大模型的相关知识。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号