AI到底会“吃”掉多少电?
AI到底会“吃”掉多少电?
随着人工智能(AI)的快速发展,其能耗问题日益受到关注。一篇广为流传的报道称,ChatGPT 每日耗电量或超 50 万千瓦时,相当于1.7万个美国家庭的能耗。还有研究估算,在最糟糕的场景下,未来谷歌AI的能耗将与像爱尔兰这样的国家相当。然而另一方面,也有观点认为媒体和大众选择性关注估算结论较为夸张的研究,并将对AI能耗的担忧视为社会对新技术惯有的反应。
《科学四十人》系列座谈(左起,杨富强、李勇、陈云霁、丁肇豪、张永平)
AI能耗现状与未来趋势
《知识分子·科学四十人》系列座谈邀请到清华大学电子工程系教授李勇、中国科学院计算技术研究所副所长陈云霁、华北电力大学电气与电子工程学院教授丁肇豪、能源基金会清洁电力项目主任张永平等专家,围绕AI能耗问题展开深入讨论。
当前AI能耗占比
国际能源署(IEA)最近发布的2024版全球电力报告指出,2022年全球数据中心和人工智能大约消耗了全球总用电量的1.6%,且增长迅速。对此,陈云霁提出了一个观点:从重要性来说,AI杀手级应用大于大模型,大模型大于算力,算力又大于电力。这个观点反映了当前人工智能领域的现状。
未来AI能耗预测
李勇预测,随着技术的进步,未来十到二十年,人工智能在社会工作量中的占比可能会从目前的不到1%提高到40-50%,相应的能源消耗比重也可能增加到社会总能源消耗的20-30%。陈云霁则指出,随着AI深入到实体经济和生活的各个角落,电力消耗的占比可能不再是1.6%,而是16%甚至更多。
AI能耗的优化路径
技术创新
- 专用化芯片:陈云霁认为,未来可以通过开发专用芯片来降低能耗。例如,为特定的大模型定制芯片,这种芯片虽然不具备通用性,但能效可能比现在的GPU高出100倍甚至1000倍。
- 工艺节点突破:虽然短期内工艺节点突破可能受限,但通过体系结构的创新,如为特定任务定制专用芯片,可以在工艺节点不变的情况下降低能耗。
管理优化
- 算电协同:丁肇豪提出“算电协同”的概念,即让算力基础设施更多地利用新能源,同时让电力系统具备灵活性,使AI基础设施的电力负荷能够跟随电力系统需要而调整。
- 市场机制:张永平提到,未来可以通过价格机制、市场手段、行政措施以及调度手段来优化能源使用。例如,通过电力现货市场提供价格信号,激励数据中心调整用电行为。
AI与能源的互动
AI助力能源系统
AI不仅增加了能源消耗,也能帮助更有效地利用新能源。例如,通过模拟和计算帮助预防和解决电网事故,提高电网调度的精准度。
能源供给与AI需求的匹配
- 绿色能源供给:数据中心的用电需求量大,且在某些时段用电量非常高,这与核电,尤其是中小型、模块化核电的供电特性非常匹配。未来,可以通过建立大型园区或利用附近的风电和太阳能来满足绿色用电需求。
- 区域布局优化:国家鼓励将数据中心迁移到可再生能源丰富的地区,如西北地区,这样可以减少电网传输的需求,使得用电需求与清洁电力供给更加接近,用电成本更低,也助力可再生能源就地利用。
面临的挑战
技术挑战
- 可解释性与安全性:AI在电力调度等核心领域的应用面临可解释性和安全性的挑战。AI计算出的结果可能存在不确定性,且在出现问题时责任归属变得模糊。
- 储能技术:完全依赖绿色能源的集中式数据中心相对较少,因为这类数据中心对可靠性的要求非常高。要保证大规模能源供应的稳定性,需要有调节手段,如水电或储能设施。
经济挑战
- 成本问题:实现完全绿色能源供应可能需要大量投资,包括储能设施、氢能等,这些都会带来较高的经济成本。
- 商业模式:AI算力中心的商业模式仍在探索中,如何平衡成本与收益是一个重要课题。
未来展望
专家们普遍认为,AI与能源的关系是相互促进的。虽然AI的快速发展带来了能耗问题,但AI技术本身也能帮助解决能源系统的挑战。未来,通过技术创新、管理优化和市场机制的完善,有望实现AI与能源的协同发展。