问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

如何看待人工智能未来十年的发展?

创作时间:
作者:
@小白创作中心

如何看待人工智能未来十年的发展?

引用
21经济网
1.
http://m.21jingji.com/article/20200819/herald/390997f89b401c20e2c027637633db9d.html

2020年是人工智能发展的重要里程碑,这一年不仅是现代人工智能发展的第10个年头,也是全球在健康、贸易、经济、文化、政治和科技领域发生深刻变革的一年。本文将从数据、算力、算法和工程化四个维度,探讨未来十年人工智能技术的发展趋势。

数据

数据对人工智能的重要性不言而喻,过去十年,数据的获取在数量、质量和种类上都取得了显著增长,为AI技术的发展提供了坚实基础。未来,数据层面的发展将呈现以下趋势:

  • 数据总量持续快速增长:随着物联网和5G技术的进一步发展,数据源和传输能力将得到提升。IDC数据显示,数据总量将从2018年的33ZB增长到2025年的175ZB。

  • 存储方式以集中存储为主:公有云存储的渗透率将持续增长,成为数据存储的主要方式。

  • 标注数据仍依赖人工:尽管存在自动标注和半自动标注,但未来5-10年内,人工标注数据仍将是主要来源,占比超过75%。

这些趋势表明,数据量的持续供给是有保障的,但人工标注的成本和规模可能成为限制AI技术发展的因素。

算力

算力是实现AI系统所需的硬件计算能力,其发展主要依赖于半导体计算类芯片的进步。虽然半导体行业发展存在起伏,但"摩尔定律"在过去120年中持续有效,预计未来5-10年仍将保持平稳发展。

值得注意的是,GPU的迅速发展弥补了CPU发展的趋缓。从晶体管数量增长来看,GPU已超过CPU,且在计算能力和内存访问速度上远超CPU。2019年,GPU芯片在AI芯片市场中占据27%的份额,成为深度学习领域的硬件计算标准配置。

除了GPU和CPU,ASIC、FPGA等新兴AI芯片也在发展,但其能否在提高性能效率的同时保持通用性,并获得云厂商和软件生态的支持,还有待观察。

算法

基于深度学习的算法突破是AI技术取得里程碑式发展的关键。然而,随着算法性能的不断提升,算力需求激增带来的挑战也日益凸显。OpenAI数据显示,训练大型AI模型的算力从2012年开始翻了30万倍,年平均增长11.5倍,而算力硬件的增速仅为年平均1.4倍。

MIT研究进一步表明,对于过参数化的AI模型,其算力需求在理想情况下大于等于性能需求的4次方,现实情况则在9次方水平上下浮动。这意味着现有算法在效率上有很大优化空间。

未来AI算法的发展可能呈现以下特点:

  • 先验知识表示与深度学习的结合:图网络技术正在与深度学习融合,形成深度图网络研究领域,这可能解决深度学习模型的数据饥渴、推理能力不足和输出结果可解释性问题。

  • 模型结构借鉴生物科学:深度学习模型结构过于简单,可以从生物神经科学的进步中吸取灵感,同时加入不确定性参数建模。

  • 数据生成:通过算法减少模型训练对人工标注数据的依赖,这已成为DARPA的AI3.0发展计划目标之一。

  • 模型自评估:通过设计闭环系统提高AI系统的鲁棒性和可对抗性。

工程化

工程化是将数据、算力和算法结合在一起的媒介,其本质作用是提升效率。过去十年,AI工程化已形成以Python为编程语言的工具链体系,主要特点包括远程编程与调试、GPU加速支持以及模型训练与推理工具链的解耦。

上游厂商如微软、Facebook和英伟达对开源社区的大量投入,将为中下游企业和个人带来工具链的技术红利,降低研发门槛和成本。

结语

未来十年,算法将成为AI技术发展的核心驱动力。能否用更少的数据和更经济的算力实现真正意义上的通用智能,值得期待。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号