问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

首次实现“记忆宫殿”认知模型,高容量灵活的海马联想和情景记忆

创作时间:
作者:
@小白创作中心

首次实现“记忆宫殿”认知模型,高容量灵活的海马联想和情景记忆

引用
网易
1.
https://dy.163.com/article/JAKINV7L05567BBF.html

麻省理工学院的科学家们在《自然》杂志上发表了一项突破性研究,他们开发了一个名为Vector-HaSH的神经网络模型,首次实现了对"记忆宫殿"认知模型的模拟。这个模型不仅在空间记忆、情节记忆和项目记忆等方面表现出色,还为理解人类记忆机制提供了新的视角。

大脑中的海马电路使得两种不同的认知功能成为可能:构建用于导航的空间地图和存储顺序性的情节记忆。这种海马体的双重角色仍然是一个持久的谜团。尽管在建模海马体的空间表征特性方面已有进展,但我们缺乏对其在情节记忆中作用的良好模型。在这里,我们提出了一个新皮层-内嗅皮层-海马体网络模型,该模型展示了高容量的通用联想记忆、空间记忆和情节记忆,并且没有现有神经记忆模型的记忆悬崖。相反,这个电路(我们称之为Vector-HaSH,即向量海马体支撑异构联想记忆)展示了存储项目数量与细节之间的平衡,这是通过将内容存储从生成错误纠正稳定状态的动态中分离出来实现的。这样的大空间避免了灾难性遗忘。

接下来,我们展示了预先结构化的表征对于构建情节记忆是一个关键特征:与现有的情节记忆模型不同,它们通过将链式问题抽象为在一个刚性低维网格细胞支撑中的过渡学习,从而实现了高容量的序列记忆。最后,我们展示了以前学到的空间序列(如位置-地标关联)本身可以作为可靠的支撑被重新利用,并与新皮层输入关联,从而提供高保真度的一次性记忆模型,首次实现了记忆运动员所使用的"记忆宫殿"电路模型。

Vector-HaSH模型的架构与功能

Vector-HaSH模型基于已知和推断的内嗅皮层与海马体之间的递归连接,以及内嗅皮层中的网格细胞之间的连接。处理过的海马外输入通过直接和非网格的内嗅皮层输入进入海马体;这些输入不仅携带来自外界的感官信息,还包括来自其他脑区的内部生成的认知输入。海马体还接收来自内嗅皮层网格细胞的输入,向网格细胞和非网格细胞输出连接。

网格细胞电路由多个网格模块组成,每个网格模块都包含不相交的细胞组。每个网格模块在任务无关的情况下表达一组不变的低维状态。这种不变性在一系列关于共同模块网格细胞的群体状态和细胞间关系的研究中得到了确立,这些研究涵盖了在熟悉和新环境中的导航、不同空间维度、以及睡眠和觉醒状态。在空间背景下,我们可以描述网格细胞模块为以其空间周期性响应为模的相位来编码位置。在非空间背景下,网格细胞模块的状态保持不变,但可以被概念化为约束在二维环面上的抽象表示。

从网格细胞到海马体的连接被设置为随机和固定的。从海马体到网格细胞的连接在发展过程中一次性设置(例如,通过联想学习),然后保持固定。正如我们将看到的,固定的内部网格连通性和从网格到海马细胞的随机固定投影对电路的许多重要属性至关重要。海马体与非网格输入之间的连接仍保持双向可塑性,并由联想学习来设置。

由于网格细胞状态是固定的,而网格-海马体的权重是双向固定的,我们将网格-海马体电路称为记忆网络的支架。这个架构涉及一组固定的低维状态(网格细胞电路),这些状态通过固定的高秩投影与海马体递归耦合,从而创建一个大量表现良好的固定点库。另一方面,我们将海马体-非网格皮层反馈回路称为电路的异质联想部分。在这个电路中,与生成固定点的连接不同,异质联想地将感官数据附加到支架上。与标准的联想记忆模型(如Hopfield网络)不同,其中递归权重稳定并直接联想内容,在这里,二者被分开:Vector-HaSH将递归动态与内容分解开来。

Vector-HaSH模型的关键特性

Vector-HaSH模型具有以下关键特性:

  1. 生成大量稳健的固定点库:随机网格到海马体的投影与关联学习的返回投影结合在支架中,将所有指数多的网格状态(作为网格模块数量的函数)转换为稳定的固定点或内嗅-海马体电路的吸引子。所需的海马体细胞数量远小于网格状态的指数集,它仅与模块数量线性相关,因此与网格状态的数量对数相关。

  2. 强泛化特性:支架网络具有另一个显著的属性,称为强泛化,这依赖于网格编码。海马体到网格的权重通过访问网格状态来设置,确定海马体状态,然后应用Hebbian类似的关联学习。我们发现所有 O(K^M) 网格状态在只学习了 O(MKmax) 个状态的权重后,都成为了迭代动态的稳定固定点,其中 Kmax 是最大模块中的状态数量。当 M 和 K 较大时,这只是所有状态的一小部分,成为自动稳定的,这是一种非常强的泛化。

  3. 内容可寻址的项目记忆:内容可寻址的记忆必须能够基于部分或损坏的模式存储和回忆任意的(用户定义的)输入模式。支架状态本身不是记忆状态,因为它们不是用户定义的。考虑到到达海马体的外部输入,这些输入直接来自新皮层或通过非网格的内嗅皮层细胞。我们将这些输入称为感官输入。一个传入的感官输入通过海马体状态与输入之间的Hebb-like一次性学习来“分配”到一个随机选择的支架固定点,采用生物学上可行的在线Hebb-like伪逆规则实现。这些权重更新的目标是自一致性:海马体驱动回感官状态的驱动应尝试生成激活海马体状态的相同感官模式。随着额外的感官输入的接收,它们被分配到其他支架状态,感官输入和海马体之间的权重也相应地更新。项目记忆的输入可以与任何支架状态关联,以任何顺序(支架状态不需要按度量序列选择,例如项目记忆)。

  4. 高容量识别记忆:观察到电路能够回忆起以前见过的输入的正确盆地,即使回忆的细节有所下降,这表明电路可能也可以被用作一个庞大的识别记忆系统。我们探索了海马体活动的简单统计量是否能够区分对熟悉输入和新颖输入的响应。我们发现,海马体中的活动分布对于熟悉的感官输入和新颖的感官输入是不同的。

  5. 空间记忆与推理:Vector-HaSH的架构和动态支持高容量的终身空间记忆,没有灾难性遗忘,并且可以在新的路径上进行零样本空间推理。即使在房间中进行非常稀疏的探索后,Vector-HaSH 能够在完全新颖的路径上预测预期的感官观察结果,这些路径和路径段之前没有经过。

  6. 高容量序列记忆:序列记忆通常通过非对称 Hopfield 网络建模,这导致了类似于标准 Hopfield 网络的容量限制。值得注意的是,在 Vector-HaSH 中,可以以类似于项目记忆的方式构建大规模的序列记忆:通过将问题分解为高容量的抽象支架序列,然后通过异质联想附加内容。我们首先探讨如何构建这些高容量的序列支架。

  7. 情节记忆:Vector-HaSH 也通过将情节记忆分解为序列支架(如上所述)和异质联结来支持高容量的情节记忆。如前所述,抽象的网格细胞和海马支架状态在一个时间上展开的事件中与感官输入通过异质联结关联。

Vector-HaSH模型的应用

Vector-HaSH模型在多个方面展示了其强大的性能:

  1. 记忆巩固实验:我们将 Vector-HaSH 暴露于一组输入中,其中一部分输入被多次呈现或回忆。每次呈现或回忆都会导致感官-海马权重的进一步增加,使用相同的学习规则。我们发现,通过这种方式强化的记忆相对于其他记忆记得更为详细,即使在移除部分海马细胞后也是如此。

  2. 分裂细胞模型:我们假设一个足够不同的上下文触发网格模块的重新初始化(重新映射)。每个上下文分配一个随机选择的初始网格相位,并在该上下文中遍历环境时建立感官-海马-网格关联。当代理返回到该上下文时,存储的关联被回忆。

  3. 记忆宫殿技术:Vector-HaSH 的一个简单扩展为记忆宫殿的工作原理提供了第一个模型,帮助解释其强大功能。Vector-HaSH 初始化到一个在高度熟悉空间中的空间轨迹的起点。我们假设待记忆的项的皮层表现与熟悉空间轨迹中的回忆感官状态相关联。关键是,即使这些回忆的轨迹感官状态只是实际感官输入的近似(这是记忆连续性中的典型情况),这些近似状态仍然是可靠的一致:即使在近似情况下,Vector-HaSH 中的感官重建也是可靠的。与这些重建状态的关联使得新的模式本身也可以在 Vector-HaSH 的记忆连续体中被高度准确地重建。新皮层序列与感官回忆状态的异质关联相对于像情节记忆那样与海马状态的异质关联的关键优势是,即使在记忆连续体中,新的关联输入的回忆也依然精确和详细。

Vector-HaSH模型的未来方向

Vector-HaSH 解释了内嗅皮层和海马体的一系列现象。与此同时,仍有许多未来研究和扩展的方向。这些方向包括:

  1. 整合海马体的不同亚区域;
  2. 将海马体中不同LFP频率峰值的现象及不同输入的主导作用与 Vector-HaSH 中的动态更新和信息流结构相关联;
  3. 研究海马体和 Vector-HaSH 如何处理内部状态与外部提示之间的冲突以及原始输入与上下文输入的变化;
  4. 实现层次化和相似性尊重的表示,以处理不同但相似的记忆;
  5. 探索空间和事件的碎片化动态成子图和离散事件(例如,通过惊讶度)以及图谱合并;
  6. 理解在该回路中不同特定细胞类型的贡献及其在情节记忆中的角色。

Vector-HaSH模型的开发为理解人类记忆机制提供了新的视角,也为人工智能和神经科学领域的研究开辟了新的方向。这个模型不仅在空间记忆、情节记忆和项目记忆等方面表现出色,还为理解人类记忆机制提供了新的视角。

本文原文来自麻省理工学院Fiete实验室,相关代码和数据可在GitHub上获取:https://github.com/FieteLab/

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号