CMU新研究:压缩即智能?
CMU新研究:压缩即智能?
压缩即智能?卡内基梅隆大学(CMU)的最新研究引发热议。研究团队开发的CompressARC系统仅通过信息压缩就能完成复杂的抽象模式匹配任务,无需大量预训练数据。这一发现挑战了传统AI范式,也引发了对"压缩即智能"这一观点的深入思考。
CompressARC:无需预训练的智能系统
卡内基梅隆大学的研究人员开发了一个名为CompressARC的系统,该系统能够在无需大量预训练数据的情况下完成复杂的推理任务。CompressARC在ARC-AGI基准测试中的表现令人瞩目:在训练集上的准确率为34.75%,在评估集上为20%。尽管这一成绩仍远低于人类和顶级AI的表现,但其独特之处在于完全不需要大型数据集的预训练。
CompressARC系统通过实时训练解决具体谜题,完全依赖梯度下降来优化网络参数,避免了传统AI的试错搜索方法。这一发现挑战了当前主流的AI范式,即需要大量数据预训练才能完成复杂任务的观点。
压缩与智能的关系
这一研究引发了对"压缩即智能"这一观点的深入思考。有学者认为,压缩通过识别模式和规律高效表征信息,这与智能行为密切相关,甚至可能构成通用智能的基础。然而,也有学者指出,这种压缩与信号处理中的压缩不同,后者强调还原效果,而前者强调理解和融会贯通。
大语言模型(LLM)的运作机制为这一讨论提供了新的视角。LLM通过Embedding将人类语言编码成自己的语言,通过注意力机制提取知识和结构,生成新的语言后再解码回人类语言。这种过程本质上是一种信息的"重整化"过程,从细颗粒度到粗颗粒度逐层提取潜变量,生成过程则是从粗粒度到细粒度的重建。
重整化:智能的新视角
基于重整化理论,有学者提出应将"压缩即智能"的观点修正为"重整化即智能"。重整化过程不仅涉及信息的压缩,更涉及概率分布的粗粒化和相变,产出的是事物之间的复杂关系。这种观点为理解大模型的训练和推理过程提供了新的理论框架。
大模型的语言体系
从语言体系的角度来看,LLM构建了一个高维的语言空间,能够将自然语言、程序语言、视觉听觉语言等映射到这个空间中。这个高维语言空间由概率分布张成,可以分为三层:基础"信息概率分布"处理体系、自然语言体系和形式语言体系。高阶语言来自低阶语言的重整化,但同时也对低阶语言产生牵引作用。
结论
CMU的研究为理解智能的本质提供了新的视角,但同时也需要谨慎看待。CompressARC在处理计数、长距离模式识别等复杂任务时表现不佳,且研究尚未经过同行评审。"压缩即智能"的观点虽然引发了广泛讨论,但更准确的说法可能是"重整化即智能"。这一发现不仅挑战了当前的AI范式,也为理解智能的本质提供了新的思路。