根据数学模型构建大脑的工作原理,为人工智能研究提供了新方向
根据数学模型构建大脑的工作原理,为人工智能研究提供了新方向
谷歌研究院举办了一场关于深度学习概念理解的在线研讨会。在研讨会上,克里斯托斯·帕帕迪米特里奥(Christos Papadimitriou)做了关于大脑中单词表征的演讲。他提出了一种称为"交互循环网络"的大脑数学模型,该模型为创建可以模拟人类思维的人工智能系统提供了新的思路。
Papadimitriou 讨论了我们对大脑中信息处理机制的日益了解,可能有助于创建在理解和参与对话方面更加稳健的算法。Papadimitriou 提出了一个简单而有效的模型,该模型解释了大脑的不同区域如何相互通信以解决认知问题。
现在正在发生的事情可能是世界上最伟大的奇迹之一,帕帕迪米特里奥说,大脑将结构化知识转化为电波,通过不同的媒介传输并到达听者的耳朵,在那里它们再次被大脑处理并转化为结构化知识。
“毫无疑问,所有这些都发生在尖峰、神经元和突触上。但是这是如何发生的?这是一个很大的问题。”
大脑中神经元的集合
神经科学界正试图弄清大脑中的神经活动如何转化为语言、数学、逻辑、推理、计划和其他功能。如果科学家们成功地根据数学模型构建大脑的工作原理,那么他们将为创建可以模拟人类思维的人工智能系统打开一扇新的大门。
许多研究集中在单个神经元水平上的活动。直到几十年前,科学家们还认为单个神经元对应单个想法。
最流行的例子是“祖母细胞”理论,它声称大脑中有一个神经元,每次看到祖母时都会出现尖峰信号。最近的发现驳斥了这一说法,并证明了大量神经元与每个概念相关,并且连接到不同概念的神经元之间可能存在重叠。
这些脑细胞群被称为“集合体”,帕帕迪米特里乌将其描述为“一组高度连接、稳定的神经元,代表某些东西:一个词、一个想法、一个物体等。”
屡获殊荣的神经科学家 György Buzsáki 将程序集描述为“大脑的字母表”。
大脑的数学模型
为了更好地理解程序集的作用,Papadimitriou 提出了一种称为“交互循环网络”的大脑数学模型。在这种模型下,大脑被划分为有限的区域,每个区域包含数百万个神经元。每个区域内都有递归,这意味着神经元之间相互作用。这些领域中的每一个都与其他几个领域有联系。这些区域间连接可以被激发或被抑制。
该模型提供随机性、可塑性和抑制性。随机性是指每个大脑区域的神经元是随机连接的。此外,不同区域之间有随机连接。可塑性使神经元和区域之间的连接能够通过经验和训练进行调整。抑制意味着在任何时候,都会有有限数量的神经元处于兴奋状态。
Papadimitriou 将其描述为基于“生命的三种主要力量”的非常简单的数学模型。
随着一批来自不同学术机构的科学家,PAPADIMITRIOU详述在这个模型纸在去年的美国国家科学院的同行评议的科学期刊出版论文集。装配是该模型的关键组成部分,并实现了科学家所谓的“装配演算”,这是一组可以处理、存储和检索信息的操作。
“装配演算”可以用数学方法证明并通过模拟验证这些操作对应于真实行为,这些操作对应于[在大脑中]观察到的行为。
Papadimitriou 和他的同事假设组装演算是解释大脑认知功能(例如推理、计划和语言)的正确模型。
为了测试他们的心智模型,Papadimitriou 和他的同事尝试实现一个自然语言处理系统,该系统使用汇编演算来解析英语句子。实际上,他们试图创建一个人工智能系统来模拟大脑中容纳与词汇和语言理解相对应的程序集的区域。
发生的情况是,如果一系列单词激发 lex 中的这些程序集,该引擎将生成句子的解析。
该系统完全通过模拟神经元尖峰(就像大脑一样)工作,而这些尖峰是由组装微积分运算引起的。这些组件对应于内侧颞叶、韦尼克区和布罗卡区,这是大脑中高度参与语言处理的三个部分。
该模型接收一个单词序列并生成一个语法树。他们的实验表明,就神经元尖峰的速度和频率而言,他们模型的活动与大脑中发生的情况非常接近。
目前,人工智能模型仍然非常初级,缺少语言的许多重要部分。研究人员正在制定计划以填补存在的语言空白。但他们认为,所有这些部分都可以加上组装演算,这一假设需要经过时间的考验。
大脑区域语言处理
语言解析只是测试汇编演算理论的一种方式。Papadimitriou 和他的合作者正在研究其他应用程序,包括像儿童在很小的时候那样学习和规划。
关于语言在人类思维中的运作方式以及它与其他认知功能的关系,仍然存在许多问题。但 Papadimitriou 认为,装配模型使我们更接近于理解这些功能并回答剩余的问题。