问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

大模型时代或将落幕:AI专家预测模型将先"瘦身"再优化

创作时间:
作者:
@小白创作中心

大模型时代或将落幕:AI专家预测模型将先"瘦身"再优化

引用
1
来源
1.
https://finance.sina.cn/2024-07-22/detail-inceytiz8964691.d.html?vt=4&cid=76524&node_id=76524

在人工智能领域,大模型和小模型之争一直备受关注。近期,前OpenAI和特斯拉AI研究员Andrej Karpathy发表观点,预测AI模型的发展趋势将出现逆转:未来的模型将会更小,但仍然会变得更智能。

大模型的优势与局限

在LLM发展的初期阶段,大模型凭借其强大的数据处理能力和泛化能力,成为了行业的主流选择。大模型能够处理海量数据,挖掘深层次的模式和规律,展现出卓越的性能。然而,随着技术的发展,大模型也暴露出一些问题:

  • 成本高昂:大模型在部署和运行时面临着高昂的成本和资源消耗,包括计算资源、存储资源以及能源消耗等。
  • 效率低下:大模型在训练过程中需要记住大量无关紧要的细节,这不仅浪费了计算资源,还可能导致模型产生错误和偏见。
  • 难以优化:大模型的复杂性使得优化变得更加困难,模型的可解释性和透明度也较低。

小模型的优势

相比之下,小模型具有以下优势:

  • 成本更低:小模型更易于在各种设备和场景中进行部署,满足使用便利性和低功耗的要求。
  • 效率更高:小模型可以更可靠地检索信息并验证事实,类似于一个能够精准定位正确答案的学霸。
  • 优化更容易:小模型的规模更小,优化起来也更加容易,模型的可解释性和透明度也更高。

大模型向小模型的转变

Karpathy预测,未来的AI模型发展将呈现一种"瘦身"趋势:先通过大模型充分探索和理解问题的本质和规律,然后将这些知识和模式提炼并应用于小模型的设计和优化中。这种做法类似于知识蒸馏,即从大模型中提炼出核心知识,用于训练更小、更高效的模型。

OpenAI的Strawberry项目就是一个典型案例。该项目专注于解决模型记忆无关紧要细节的问题,通过高质量的训练数据集来训练规模更小、能力更强的模型。类似地,GPT-4o mini就是通过GPT-4清洗出来的数据进行训练的。

专家观点

这一观点也得到了多位专家的支持。OpenAI首席执行官Sam Altman早在2023年4月就宣布大型AI模型的"时代结束"。微软研究人员在开发Phi模型时也做出了相同的判断,Hugging Face AI研究人员也同意对于高质量数据集的追求,并发布了高质量的训练数据集。

未来展望

对于未来的通用人工智能来说,更小、更高效的人工智能模型可能会重新定义人工智能中的"智能",挑战"越大越好"的假设。这并不意味着大模型将完全退出历史舞台,而是意味着AI模型的发展将更加注重效率和实用性,而不是单纯的规模扩张。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号