AI 大模型算力芯片产业深度分析 2024
AI 大模型算力芯片产业深度分析 2024
随着ChatGPT的热潮席卷全球,AI大模型对算力的需求呈现爆发式增长,这不仅推动了芯片产业的快速发展,也带来了巨大的商业机遇。本文将深入分析AI大模型算力芯片产业的发展现状和未来趋势,探讨不同类型的芯片在AI应用中的作用,并展望技术创新如何引领本土产业链的发展。
2024年7月21日 17:22:21
AI 大模型算力芯片产业深度分析 2024
ChatGPT(Chat Generative Pre-trained Transformer)是由OpenAI于2022年12月推出的对话AI模型,一经面世便受到广泛关注,其2023年1月月活跃用户达到1亿,是史上月活用户增长最快的消费者应用。在问答模式的基础上ChatGPT可以进行推理、编写代码、文本创作等等,这样的特殊优势和用户体验使得应用场景流量大幅增加。
1. 算力需求爆发拉动芯片量价齐升
AI计算需要各类芯片支撑
算力需求爆发,芯片量价齐升
AI服务器为算力载体
CPU、GPU、FPGA、ASIC、光模块各司其职
1.1 人工智能四层架构,芯片为底层支撑
1.2 人工智能不同计算任务需要各类芯片实现
1.3 ChatGPT流量激增,为AI服务器带来重要发展机遇
1.4 AI服务器快速增长,大力拉动芯片需求
1.5 AI服务器芯片构成——CPU+加速芯片
1.6 CPU擅长逻辑控制,可用于推理/预测
1.7 服务器CPU向多核心发展,满足处理能力和速度提升需要
1.7 GPU高度适配AI模型构建
1.8 FPGA:可通过深度学习+分布集群数据传输赋能大模型
1.9 ASIC可进一步优化性能与功耗,全球巨头纷纷布局
随着机器学习、边缘计算、自动驾驶的发展,大量数据处理任务的产生,对于芯片计算效率、计算能力和能耗比的要求也越来越高,ASIC通过与CPU结合的方式被广泛关注,国内外龙头厂商纷纷布局迎战AI时代的到来。
1.10 数据传输速率:容易被忽略的算力瓶颈
1.11 数据传输核心器件:光模块
2. 技术创新引领本土产业链弯道突围
国产服务器CPU发展之路通过CHIPLET布局先进制程,服务器芯片广泛应用存算一体打破“存储墙”限制,实现降本增效.
2.1 服务器CPU需求增长,国化产三条发展路线
2.2 未来算力升级路径:CHIPLET、存算一体
近期CHATGPT的兴起推动着人工智能在应用端的蓬勃发展,这也对计算设备的运算能力提出了前所未有的需求。虽然AI芯片、GPU、CPU+FPGA等芯片已经对现有模型构成底层算力支撑,但面对未来潜在的算力指数增长,短期使用CHIPLET异构技术加速各类应用算法落地,长期来看打造存算一体芯片(减少芯片内外的数据搬运),或将成为未来算力升级的潜在方式。
2.3 CHIPLET是布局先进制程、加速算力升级的关键技术
Chiplet异构技术不仅可以突破先进制程的封锁,并且可以大幅提升大型芯片的良率、降低设计的复杂程度和设计成本、降低芯片制造成本。Chiplet技术加速了算力升级,但需要牺牲一定的体积和功耗,因此将率先在基站、服务器、智能电车等领域广泛使用。
2.4 CHIPLET已广泛应用于服务器芯片
2.5 存算一体:打破“存储墙”限制,技术迭代演进
2.6 存算一体:更大算力、更高能效、降本增效
存算一体就是存储器中叠加计算能力,以新的高效运算架构进行二维和三维矩阵计算。存算一体的优势包括:
(1)具有更大算力(1000TOPS以上)
(2)具有更高能效(超过10-100TOPS/W),超越传统ASIC算力芯片
(3)降本增效(可超过一个数量级)