改变AI发展格局 神经拟态计算还差关键一步
作者:hanse来源:科技日报时间:2020-06-17

  知名信息研究和分析机构高德纳预测,到2025年,神经拟态芯片有望成为用于AI系统的主要芯片之一。

  20世纪80年代,科学家设想将人类大脑的功能映射到硬件上,即直接用硬件来模拟人脑结构,这种方法称为神经拟态计算,这类硬件被称为神经拟态芯片。经过近40年发展,神经拟态芯片相继问世。全球知名信息研究和分析机构高德纳(Gartner)日前的预测显示,到2025年,神经拟态芯片将成为高级人工智能部署的主要计算架构,该芯片有望成为用于AI系统的主要计算机芯片之一。

  脉冲神经网络信息处理不再依赖计算机

  传统人工智能主要以计算,即通过编程等手段实现机器智能。其中深度学习是目前广泛应用的技术之一,2006年左右,深度学习技术进入大众视野。它通过添加多层人工神经网络,赋予机器视觉、语音识别以及自然语言处理等方面的能力。

  尽管深度学习有人工神经网络的加持,但通过计算实现智能的影子并未消失。“只不过与传统计算相比,深度学习的算法模型发生了变化,实现的物理载体依然是计算机。”北京大学信息科学技术学院教授黄铁军接受科技日报记者采访时表示。

  “而与深度学习采用的多层人工智能神经网络不同,神经拟态计算构造的是脉冲神经网络,通过模拟生物神经网络实现智能。它本身就是能处理信息的载体,不再依赖于计算机。”黄铁军表示,神经拟态计算是探索实现人工智能的新范式。在信息处理方面,现在的人工神经网络处理的是相对静态的、固定的信息,脉冲神经网络则适合处理与时空高度相关的复杂信息流。

  举例来说,机器人看到豹子时,采用深度学习方法能识别出是豹子,但对机器人而言这只是一个系统中的信息标签,而这些信息好像与它无关,机器并不能结合这些信息为下一步的行动作出判断。而人看到豹子,不仅可以通过外观识别出自己面对的动物是猛兽,还会观察豹子的行动,甚至判断自己所处的现实环境,并根据综合信息作出是否需要逃跑的判断。“这才是真正的智能。智能不仅是信息分类这么简单,它是对时空信息进行综合处理并作出决策行动的过程。”黄铁军解释道,神经拟态计算就是要通过模拟生物神经网络的方式,让机器拥有接近甚至超越生物神经网络的系统,帮助机器感知自然界中时空变化的信息,实时处理信息流并采取行动。

  “电脑”超越人脑成为可能

  深度学习的大规模应用对计算机的计算能力提出更高要求,同时也让经典计算机的耗能一直居高不下,而按照生物神经网络结构设计的神经拟态计算,已成为大势所趋和必然选择。

  神经拟态学工程师、德国海德堡大学物理学家卡尔海因茨迈耶(Karlheinz Meier)表示,人脑相对计算机而言有三大特性:一是低能耗,人脑的功率大约是20瓦特,而当前试图模拟人脑的超级计算机需要几百万瓦特;二是容错性,人脑时刻都在失去神经元,而不会影响脑内的信息处理机制,而微处理器失去一个晶体管就能被破坏;三是无须编程,大脑在与外界交互的过程中自发地学习和改变,而无需像实现人工智能的程序一样遵循预设算法所限制的路径和分支。

热门推荐

教育频道
  • 全国中学生物理竞赛昨天放榜,浙
  • 河北临城县教师夫妇:太行山里的
  • 山西山区内一小学仅两个学生 90
浙江新闻
本网部分信息转载于其他网站,如稿件涉及版权等问题, 请72小时内与浙江头条联系 客服QQ:2697148079
版权所有:浙江头条   技术支持:浙江头条