大脑的记忆能力启发了AI专家,使神经网络不再那么“健忘”

大脑的记忆能力启发了AI专家,使神经网络不再那么“健忘”_人工智能_智能芯片


马萨诸塞大学阿姆赫斯特分校和贝勒医学院的人工智能专家报告称,他们从一种被称为“重放”的人脑记忆机制中获得灵感,从而成功解决了他们提高人工智能能力的一个长期存在的重大障碍。


第一作者和博士后研究员Gido van de Ven和首席研究员安德烈亚斯Tolias贝勒,与哈Siegelmann在马萨诸塞大学阿默斯特,自然通讯中写到,他们已经开发出一种新方法来保护神经网络学习。


Siegelmann及其同事指出,深度神经网络是最近人工智能发展的主要驱动因素,但遗忘阻碍了进展。


他们说:“一种解决方案是存储以前遇到的例子,并在学习新东西时重温它们。尽管这样的‘重放’或‘彩排’可以解决灾难性遗忘,但对所有以前学过的任务进行不断的再训练效率非常低,而且需要存储的数据量会很快变得无法管理。”


与人工智能神经网络不同,人类能够在一生中不断积累信息,建立在早期经验的基础上。他们解释说,大脑中保护记忆不被遗忘的一个重要机制是再现那些记忆的神经元活动模式。


Siegelmann说,该团队的主要见解是“认识到大脑中的回放并不能存储数据。”相反,“大脑在一个更高、更抽象的层次上产生记忆的表征,而不需要产生详细的记忆。”受此启发,她和同事们创造了一个类似人工大脑的回放,其中没有存储任何数据。相反,就像大脑一样,这个网络产生了它以前所见的高水平的表征。


“抽象生成大脑回放”被证明是非常有效的,并且该团队表明,在学习新记忆的同时,回放一些生成的记忆就足以记住旧的记忆。他们指出,生成式重复不仅防止灾难性遗忘,而且为系统学习提供了一个新的、更流线型的路径,它允许系统从一种情况到另一种情况的泛化学习。


例如,“如果我们的具有生成回放功能的网络首先学会区分猫和狗,然后学会区分熊和狐狸,它也会在没有经过专门训练的情况下区分猫和狐狸。”值得注意的是,系统学习的越多,在学习新任务时就会变得越好。”van de Ven说。


他和他的同事们写道:“我们提出了一种新的、大脑激发的重播方式,在这种方式中,内部或隐藏的再现被重播,而这些再现是由网络自身的、情境调制的反馈连接产生的。”我们的方法在挑战连续学习基准上取得了最先进的性能,而无需存储数据,它为大脑中的抽象水平重放提供了一个新的模型。”


Van de Ven说:“我们的方法对重放可能促进大脑记忆巩固的方式做出了几个有趣的预测。我们已经在进行一项实验来验证其中一些预测。”


1
13
0
82

相关资讯

  1. 1、筑牢基底:工业互联网超融合应用构建智能制造新势力2983
  2. 2、如何从智能合约中生成JavaWrapper370
  3. 3、纳米结构如何提高光学传感器的灵敏度?125
  4. 4、EMC整改中的常见问题与解决方法解析2347
  5. 5、三通道大功率LED恒流驱动器的设计3520
  6. 6、关于FPGA时序以及时序收敛的基本概念详解501
  7. 7、垄断人工智能+精准医疗的手术机器人公司:达芬奇机器人深度分析5143
  8. 8、常见电磁兼容(EMC)问题及解决办法1817
  9. 9、特斯拉毕其功于中国一役?985
  10. 10、3月财新中国制造业PMI录得50.6,制造业供给、需求继续保持扩张4589
全部评论(0)
我也有话说
0
收藏
点赞
顶部