改变AI发展格局 神经拟态计算还差关键一步
知名信息研究和分析机构高德纳预测,到2025年,神经拟态芯片有望成为用于AI系统的主要芯片之一。
20世纪80年代,科学家设想将人类大脑的功能映射到硬件上,即直接用硬件来模拟人脑结构,这种方法称为神经拟态计算,这类硬件被称为神经拟态芯片。经过近40年发展,神经拟态芯片相继问世。全球知名信息研究和分析机构高德纳(Gartner)日前的预测显示,到2025年,神经拟态芯片将成为高级人工智能部署的主要计算架构,该芯片有望成为用于AI系统的主要计算机芯片之一。
脉冲神经网络信息处理不再依赖计算机
传统人工智能主要以计算,即通过编程等手段实现机器智能。其中深度学习是目前广泛应用的技术之一,2006年左右,深度学习技术进入大众视野。它通过添加多层人工神经网络,赋予机器视觉、语音识别以及自然语言处理等方面的能力。
尽管深度学习有人工神经网络的加持,但通过计算实现智能的影子并未消失。“只不过与传统计算相比,深度学习的算法模型发生了变化,实现的物理载体依然是计算机。”北京大学信息科学技术学院教授黄铁军接受科技日报记者采访时表示。
“而与深度学习采用的多层人工智能神经网络不同,神经拟态计算构造的是脉冲神经网络,通过模拟生物神经网络实现智能。它本身就是能处理信息的载体,不再依赖于计算机。”黄铁军表示,神经拟态计算是探索实现人工智能的新范式。在信息处理方面,现在的人工神经网络处理的是相对静态的、固定的信息,脉冲神经网络则适合处理与时空高度相关的复杂信息流。
举例来说,机器人看到豹子时,采用深度学习方法能识别出是豹子,但对机器人而言这只是一个系统中的信息标签,而这些信息好像与它无关,机器并不能结合这些信息为下一步的行动作出判断。而人看到豹子,不仅可以通过外观识别出自己面对的动物是猛兽,还会观察豹子的行动,甚至判断自己所处的现实环境,并根据综合信息作出是否需要逃跑的判断。“这才是真正的智能。智能不仅是信息分类这么简单,它是对时空信息进行综合处理并作出决策行动的过程。”黄铁军解释道,神经拟态计算就是要通过模拟生物神经网络的方式,让机器拥有接近甚至超越生物神经网络的系统,帮助机器感知自然界中时空变化的信息,实时处理信息流并采取行动。
“电脑”超越人脑成为可能
深度学习的大规模应用对计算机的计算能力提出更高要求,同时也让经典计算机的耗能一直居高不下,而按照生物神经网络结构设计的神经拟态计算,已成为大势所趋和必然选择。
神经拟态学工程师、德国海德堡大学物理学家卡尔海因茨·迈耶(Karlheinz Meier)表示,人脑相对计算机而言有三大特性:一是低能耗,人脑的功率大约是20瓦特,而当前试图模拟人脑的超级计算机需要几百万瓦特;二是容错性,人脑时刻都在失去神经元,而不会影响脑内的信息处理机制,而微处理器失去一个晶体管就能被破坏;三是无须编程,大脑在与外界交互的过程中自发地学习和改变,而无需像实现人工智能的程序一样遵循预设算法所限制的路径和分支。
黄铁军认为,通过模仿生物神经网络实现机器智能是一条十分重要的研究路线,未来它甚至有可能突破生物智能的天花板。尽管生物神经网络是一个慢速系统,每秒钟能产生的神经脉冲数量只有十几个,生物获取和处理的信息量也处于较低水平,但一旦将生物神经网络电子化,其处理信息的能力将比被模拟的生物大脑高出多个数量级。
黄铁军说,当与人脑类似的“电脑”变为现实时,它对人脑的大幅度超越就发生了:速度上,“电脑”可以比人脑快多个数量级;规模上,没有颅骨限制,“电脑”可以根据需求扩容;寿命上,电子系统即使有损耗,也可以复制迁移到新系统而永生;精度上,生物大脑的很多缺陷和短板将被“电脑”避免和弥补。
目前缺乏应用于现实的模型
虽然神经拟态计算前景广阔,但要实际应用仍面临不小挑战。黄铁军认为,缺少应用于现实的模型是神经拟态计算最大的瓶颈。
目前不少研究人员正在寻觅突破瓶颈的方式。有两种主要的技术途径:第一种是照着生物的脑部结构,依葫芦画瓢设计神经拟态计算系统。但前提是搞清楚生物神经网络的细节,如神经元的功能、结构,神经突触连接的特性等。