问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

耶鲁&MIT联手打造未来AI硬件

创作时间:
作者:
@小白创作中心

耶鲁&MIT联手打造未来AI硬件

引用
搜狐
9
来源
1.
https://www.sohu.com/a/835053869_800763
2.
https://finance.sina.com.cn/tech/roll/2024-12-29/doc-ineaziep4590336.shtml
3.
https://www.forwardpathway.com/139241
4.
https://www.mittrchina.com/news/detail/14210
5.
https://www.forwardpathway.com/155016
6.
https://www.mittrchina.com/news/detail/14229
7.
https://awtmt.com/articles/3710096
8.
https://www.forwardpathway.com/132352
9.
https://www.forwardpathway.com/169073

近年来,人工智能(AI)的快速发展对硬件提出了更高的要求。为了满足日益增长的计算需求,各大研究机构和高校纷纷投入AI硬件的研发。其中,耶鲁大学和麻省理工学院(MIT)在这一领域取得了令人瞩目的成果。

01

耶鲁大学:边缘计算与AI的完美结合

耶鲁大学计算机科学系的林忠教授领导的团队在AI硬件研究方面取得了重要进展。林教授的职业生涯充满了成就与创新,自2020年11月加入耶鲁大学工程与应用科学学院以来,他在计算机科学领域的贡献可谓卓越非凡。他的学术背景相当丰富,拥有清华大学的电子工程学士和硕士学位,以及普林斯顿大学的计算机工程博士学位。在耶鲁大学(2025USNews美国大学排名:5),他不仅担任了计算机科学的首任Joseph C. Tsai教授,还积极推动了多个跨学科的研究项目,尤其是在人工智能(AI)和量子计算领域。

在人工智能方面,林教授领导的团队在国家科学基金会资助的边缘计算AI研究所中发挥了重要作用。他的研究旨在提升资源有限设备的能力,使它们能够安全地访问大型模型的AI功能。这项工作不仅推动了边缘计算的进展,也为实际应用提供了坚实的基础,尤其是在需要实时数据处理的场景中,林教授的研究为企业提供了更高效的解决方案。

边缘计算的核心在于将数据处理移至靠近数据源的地方,这样可以显著降低延迟,同时减少对集中式云解决方案的依赖。这种转变在需要迅速反应的行业中尤为重要,例如零售、医疗和智能城市。在零售领域,AI可以通过分析顾客的购买行为,实时调整库存策略,从而提升顾客体验并增加销售额。在医疗领域,穿戴设备可以即时监测患者的健康状况,通过AI分析数据,及时发出警报,确保患者得到快速救助。在智能城市的建设中,AI与边缘计算的结合使得交通管理、环境监测等系统能够实时响应,提升城市运营效率。

然而,AI与边缘计算的结合不仅仅是提升效率和反应速度,它还在数据隐私和网络流量管理方面展现出巨大的潜力。传统的数据处理模式往往需要将大量敏感信息传输到中央服务器,这不仅增加了数据泄露的风险,也消耗了大量的网络带宽。而通过在边缘设备上处理数据,企业能够在不牺牲隐私的情况下,利用AI进行实时分析。例如,联邦学习(Federated Learning)技术允许AI模型在本地设备上进行训练,仅将必要的更新发送到中央服务器,从而保护用户数据隐私。

02

MIT:3D芯片技术突破传统局限

MIT的研究团队在3D芯片技术方面取得了重大突破。传统的芯片制造方式面临着在单一表面上堆叠晶体管的挑战,而MIT的3D芯片通过垂直堆叠多个晶体管层,显著提高了晶体管的密度。这一创新使得芯片的计算能力有望达到与现今超级计算机相媲美的水平。

这一技术的突破源于对半导体材料的重新思考。MIT的研究团队采用了过渡金属二硫化物(TMDs),如二硫化钼和二硒化钨,这些材料在构建n型和p型晶体管方面展现出了优异的性能。通过去除传统硅基衬底的需求,MIT的团队成功地在低温下直接在任何晶体表面上生长出高质量的半导体材料。这种方法不仅提高了不同层之间的通信效率,还为未来AI硬件的发展铺平了道路。

为什么这一技术对未来的AI应用至关重要呢?随着AI的应用日益广泛,对计算能力的需求也在急剧上升。无论是在数据分析、图像识别,还是在自然语言处理等领域,强大的计算能力都是实现高效AI应用的基础。MIT的3D芯片技术能够在更小的空间内提供更强的计算能力,这意味着我们可以期待未来的AI设备变得更加紧凑,同时具备更高的性能和能效。

03

光芯片:AI计算的未来之星

在后摩尔时代,光芯片被视为突破传统电子芯片性能瓶颈的关键技术。光芯片的核心是用波导来代替电芯片的铜导线,来做芯片和板卡上的信号传输,其实就是换了一种介质。当光在波导里面传输的时候,波导和波导之间出现光信号干涉,用这个物理过程来模拟线性计算这一类的计算过程,即通过光在传播和相互作用之中的信息变化来进行计算。

与最先进的电子神经网络架构及数字电子系统相比,光子计算架构在速度、带宽和能效上优势突出。因此,光子计算能够有效突破传统电子器件的性能瓶颈,满足高速、低功耗通信和计算的需求。

片上光子计算处理示意图(图源:SEMI半导体研究院)

需要指出的是,光子计算的发展目标不是要取代传统计算机,而是要辅助已有计算技术在基础物理研究、非线性规划、机器学习加速和智能信号处理等应用场景更高效地实现低延迟、大带宽和低能耗。

硅光计算芯片通过在单个芯片上集成多种光子器件实现了更高的集成度,还能兼容现有半导体制造工艺,降低成本,解决后摩尔时代AI硬件的性能需求,突破冯·诺依曼架构的速度和功耗瓶颈。

综合来看,光芯片的优势可以总结为:速度快/低延迟、低能耗、擅长AI矩阵计算等。

  • 速度快/低延迟:光计算芯片最显著的优势是速度快、延迟低,在芯片尺寸的厘米尺度上,这个延迟时间是纳秒级,且这个延迟与矩阵的尺寸几乎无关,在尺寸较大的情况下,光子矩阵计算的延迟优势非常明显。
  • 低能耗:镜片折射本身是不需要能量的,是一个被动过程。在实际应用中,由于要对计算系统编程,其中光信号的产生和接收是需要耗能的。在光学器件和其控制电路被较好地优化前提下,基于相对传统制程的光子计算的能效比,可媲美甚至超越先进制程的数字芯片。
  • 擅长矩阵运算:光波的频率、波长、偏振态和相位等信息可以代表不同数据,且光路在交叉传输时互不干扰,比如两束手电筒的光束交叉时,会穿过对方光束形成“X”型,并不会互相干扰。这些特性使光子更擅长做矩阵计算,而AI大模型90%的计算任务都是矩阵计算。

因此,光计算芯片在AI时代迎来新的用武之地。光计算芯片可对神经网络训练和推理过程中的大规模矩阵运算、神经元非线性运算进行加速,还可通过对不同神经网络的拓扑结构进行硬件结构映射,来提高芯片的通用性和灵活性。

据了解,在人工神经网络计算加速方面,基于硅光平台的神经网络已取得多项进展。早在2016年,麻省理工学院(MIT)的光子AI计算研究团队就打造了首个光学计算系统,2017年就以封面文章的形式发表在了顶级期刊Nature Photonics杂志上。

国际著名光学科学家、斯坦福大学终身正教授David Miller, 曾评价称这一系列的研究成果极大地推动了集成光学在未来取代传统电子计算芯片的发展。于是一篇论文在全球范围内启发了许多人投入到光子AI芯片的开发中,可以说是开创了光子AI计算领域发展的先河,受到业内瞩目。

2017年,曦智科技创始人沈亦晨(MIT团队成员之一)等人提出一种基于硅光平台的全光前馈神经网络架构,采用马赫-曾德干涉仪(MZI)进行神经元线性部分的计算,非线性激活函数则通过电域仿真的方法实现。

随着技术不断发展,基于硅光平台的神经网络也逐步走向商业化。例如,美国AI芯片公司Lightmatter推出通用光子AI加速器方案“Envise”;曦智科技在2019年4月对外宣布开发出了世界第一款光子芯片原型板卡,2021年推出了光子计算处理器“PACE”。

全球第一个示范出光子优势的计算系统PACE

据悉,“PACE”把最早4×4的乘法器,提升到了把上万个光器件集成在一块芯片上面,单颗光芯片上的器件集成度提高了3个数量级,系统时钟达1GHz,运行特定循环神经网络速度可达目前高端GPU的数百倍,这是光子计算领域一个长足的进步。沈亦晨表示,“PACE是全球仅有的,第一个示范出光子优势的计算系统,也是已知全球集成度最高的光子芯片,能够展示光子计算在人工智能和深度学习以外的应用案例。如果和英伟达的GPU 3080跑同一个循环神经网络算法,PACE花的时间可以做到GPU的1%以内。”

在此之前,华为在2019年公开了一份名为“光计算芯片、系统及数据处理技术”的发明专利,接着在2021年华为全球分析师大会上表示,“到2030年,算力需求将增加100倍,如何打造超级算力将是一个巨大的挑战,未来模拟计算、光子计算面临巨大的应用场景,所以目前华为也在研究模拟计算与光子计算。”

近几年来,国内外企业、高校和研究机构也纷纷对此展开研究,取得了一系列成果和突破。清华团队研发超高速光电计算芯片,算力超3000倍去年10月,清华大学自动化系戴琼海院士、吴嘉敏助理教授与电子工程系方璐副教授、乔飞副研究员联合攻关,提出了一种“挣脱”摩尔定律的全新计算架构:光电模拟芯片(ACCEL),算力可达到目前高性能商用GPU芯片的3000余倍,能效提升四百万余倍,为超高性能芯片研发开辟全新路径。

相关成果以《面向高速视觉任务的纯模拟光电计算芯片》(All-analog photo-electronic chip for high-speed vision tasks)为题发表在 Nature 上。在這枚光电计算芯片中,清华大学攻关团队创造性地提出了光电深度融合的计算框架。从最本质的物理原理出发,结合了基于电磁波空间传播的光计算,与基于基尔霍夫定律的电路计算,实现了光与电的深度融合。

04

未来展望:AI硬件的革新之路

耶鲁大学、MIT以及全球其他研究机构在AI硬件领域的突破,正在为人工智能的未来发展奠定坚实的基础。从边缘计算到3D芯片,再到光芯片,这些创新技术不仅解决了传统硬件的局限性,更为AI应用提供了更强大的计算支持。

随着这些新技术的不断进步,我们有望看到更高效、更智能的AI设备问世,从而推动整个行业的革新和发展。这些技术的融合与应用,将为人工智能的未来发展开辟新的道路,为人类社会带来更多的便利和创新。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号