传统的通用人工智能基于符号推理和基于当前卷积神经网络人工智能方法在一些方面能够超过人类,但是离我们的期望还有很长一段距离。神经拟态计算的存在就是为了解决这些已有智能方法的不足,也可被视作人工智能发展的第三个阶段。
第一个阶段是传统智能计算,通过已知给定的过程产生答案;第二个阶段是基于深度学习的智能计算,利用已知答案通过训练来获得答案产生过程;第三个阶段是基于神经拟态的智能计算,通过同时支持多种学习方法来对多个过程自适应地强化对于答案的适配。而Loihi神经拟态芯片正是这个第三阶段的代表性计算芯片。
神经拟态芯片基本参数
英特尔公司依靠自身优势,在对人脑的神经科学研究达到一定层次的基础上构建人工智能系统,推出了Loihi神经拟态众核处理器芯片,意在加速软硬件系统的更新和发展,促进人工智能算法和应用等领域的发展。
这款芯片解决方案中的系统软件、算法、应用、芯片和硬件平台的共同促进为这一进程提供动力:一方面,软硬件性能的提高与同比价格下降,降低了开发更为复杂的新算法和新应用的门槛。另一方面,算法中通用的计算负载融入芯片,应用中基础的功能成为系统软件。
芯片面积为60平方毫米,基于领先的14纳米FinFET工艺制程,集成超过20亿个晶体管,采用目前最先进、最强大且最高密度的脉冲神经网络,单片芯片可承载多达13万个神经元和1.3亿个神经突触。
全数字电路、全异步神经拟态系统网格,广泛支持各种深度以及递归神经网络拓扑结构,每个神经元能够与数千神经元直接通讯。
每个神经元都可以通过可编程学习引擎在线调整神经网络参数,因此有自主学习能力,Loihi是目前唯一具有学习能力的神经拟态芯片。
相比通用处理器(1.67G凌动CPU),对于规模化的LASSO优化问题,Loihi在能效延迟乘积上有超过1000倍的提升。
相比于其他典型的脉冲神经网络模型,以手写数字识别为例,为达到相同准确率,Loihi的学习效率提高一百万倍。
下一步,将进一步剖析Loihi的内部奥秘
神经元网络体系架构
Loihi可进行细粒度的大规模并行处理,其通过众核网络连接128个神经拟态核、3个低功耗x86处理器以及芯片通讯接口。这个众核网络由一个异步通讯的片上网络实现。而神经拟态核通过发送消息包来相互协作与同步。每个神经拟态核又包含1024个基本的神经单元,这些神经单元形成一个内核网络。神经单元状态参数在每一个算法时间内通过时分复用的流水线方式更新。当神经元的输出电压超过出发阙值时,这个神经元将产生一个神经脉冲消息,然后再发送给它的接收神经元。
神经元模型和学习引擎
大脑学习和记忆的基本单位是神经突触及其可塑性。在Loihi芯片中,神经突触的可塑性通过改变突触参数体现。Loihi提供了强大的可编程学习能力,即Loihi可以在线自主接收数据完成训练任务。此外,Loihi芯片还提供其他可用于自主学习功能,例如:随机噪声生成等。
神经拟态编程模型
在Loihi芯片和硬件平台的基础上,我们可以通过编程实现不同的应用和学习算法。Loihi的软件开发环境提供了一整套完善的工具来支持应用开发。Loihi软件开发环境提供三种网络运行环境研究和开发者使用,包括数字仿真器、FPGA仿真平台和Loihi芯片。
Loihi引领智能计算新突破
迄今为止,Loihi还是一款神经拟态计算研究测试芯片,需要不断改进和提高。英特尔建立了围绕Loihi神经拟态计算芯片的科学研究和应用开发的开放生态:英特尔神经拟态研究社区(INRC)致力于与世界领先的研究机构展开合作,使Loihi从领先的研究测试芯片成为市场领先的产品,去改善人们的生活。