不到50美元!李飞飞团队训练出媲美DeepSeek R1的推理模型
不到50美元!李飞飞团队训练出媲美DeepSeek R1的推理模型
2025年2月6日,人工智能领域迎来震撼性突破:由李飞飞教授领衔的斯坦福大学与华盛顿大学联合团队宣布,仅花费不到50美元的云计算成本,便成功训练出名为s1的AI推理模型。这一金额甚至低于许多科技从业者每日的咖啡预算,却实现了与OpenAI的o1、DeepSeek的R1等顶尖模型相媲美的性能。
据《科创板日报》披露,s1模型在数学解题、代码生成等核心推理测试中,准确率与行业标杆产品几乎持平。更令人惊叹的是,整个训练过程仅消耗16块英伟达H100 GPU运行26分钟,云计算账单总计49.8美元。
这彻底打破了“AI研发必烧钱”的固有认知。原来高高在上的AI,动辄百亿的算力投资,现在普通玩家只要几十美元就可以在现有开源模型基础上训练一个特定模型,那接下来就是AI百花齐放的时代。
李飞飞:从AI科学家到创业先锋
1976年生于北京的李飞飞,16岁赴美求学,33岁便成为斯坦福大学计算机系最年轻的终身教授,44岁当选美国国家工程院院士。她最广为人知的成就是创立了ImageNet——这个包含1400万张标注图像的开源数据库,彻底革新了计算机视觉领域,被誉为“AI界的启蒙教科书”。
2024年,这位学者转型创业者,创立AI公司World Labs(空间智能),仅用3个月便融资1亿美元,跻身独角兽行列。她曾直言:“当前AI模型能耗高、体积臃肿,甚至不如人类孩童灵活”。正是这种对技术瓶颈的清醒认知,驱使她探索“小而美”的AI新范式。
据澎湃新闻报道,李飞飞曾在采访中提到,现在的AI比人类差远了,能耗高、体积庞大,而且尚未具备情感,但人类智慧可以启发下一代AI做得更好。
技术揭秘:蒸馏法如何炼就“平价精英”
s1模型的核心突破在于知识蒸馏技术(Knowledge Distillation)的创新应用。
研究团队从谷歌的Gemini 2.0 Flash Thinking Experimental模型中提取关键参数,通过“师生框架”将大模型的复杂推理能力浓缩至轻量化架构中。
这一过程如同将百科全书压缩成精要手册:
知识萃取:让Gemini 2.0作为“老师”生成海量推理路径;
特征对齐:引导s1模型(“学生”)模仿老师的决策逻辑;
动态优化:通过强化学习持续修正推理偏差。
与传统训练相比,蒸馏法避免了从零开始构建模型的资源消耗,使得s1在保留90%以上核心能力的同时,能耗降低97%。这种“站在巨人肩上”的策略,为资源有限的团队提供了弯道超车的机会。
正如李飞飞教授所言:“人类智慧可以启发下一代AI做得更好。”