随着世界数据量不断增加,目前摩尔定律下的处理器集成器件数量越发接近极限,当下急需通过架构的变化以应对大数据的需求。人工智能芯片也在此背景下崛起,目前已为大众所熟知的主流AI芯片架构包括:GPU,FPGA,ASIC,而类脑芯片由于其极强的学习能力也被抱以极高的期待。本文将就类脑芯片介绍其发展情况。
一、类脑芯片的由来
目前,传统的计算芯片主要基于冯•诺依曼结构。在这种结构中,计算模块和存储模块是分开的。CPU在执行命令时需要先从存储单位读取数据,这就产生延时及大量的功耗浪费。因此需要更为扁平化的结构能够更快,更低功耗的处理问题。而人脑的神经结构由于其强大的处理能力,动态可塑的性质,较低的能量消耗便成为了模拟对象,类脑芯片就此诞生。
冯•诺依曼结构
类脑芯片结构非常独特,可以仿照人类大脑的信息处理方式进行感知、思考、产生行为。人脑中的突触是神经元之间的连接,具有可塑性,能够随所传递的神经元信号强弱和极性调整传递效率,并在信号消失后保持传递效率。而模仿此类运作模式的类脑芯片便可实现数据并行传送,分布式处理,并能够以低功耗实时处理海量数据。
目前几乎所有的人工智能系统都需要进行人工建模,转化为计算问题进行处理再进行深度学习,而人脑却可以自动感知,进行问题分析和求解,决策控制等。因此类脑芯片也有望形成有自主认知的水平,可自动形式化建模。
二、类脑芯片的产业化
追溯类脑芯片的真正落地,还要从TrueNorth说起。TrueNorth 是 IBM 潜心研发近 10 年的类脑芯片。美国 DARPA 计划从 2008 年起就开始资助 IBM 公司研制面向智能处理的脉冲神经网络芯片。
2011年8月,IBM公司通过模拟大脑结构,首次研制出两个具有感知认知能力的硅芯片原型,可以像大脑一样具有学习和处理信息的能力。这两颗类脑芯片原型均采用45纳米绝缘体上硅CMOS工艺制作,包含256个神经元和256个轴突(数据传输通道)。其中一个芯片包含65356个学习突触,它能够发现新的神经元连接路径,可通过经验进行学习,并根据响应对神经元连接路径进行重组;而另一个芯片包含262144个可编程突触,可以根据预先设定,通过强化或弱化神经元之间的连接,更迅速、更高效地处理信息。类脑芯片的每个神经元都是交叉连接,具有大规模并行能力。但因技术上的限制,被IBM戏称为「虫脑」。
IDM TrueNorth类脑芯片
2014年8月,IBM公司推出名为「TrueNorth」的第二代类脑芯片。它使用了三星的28nm的工艺,包括54亿个晶体管和4096个处理核,相当于100万个可编程神经元,以及2.56亿个可编程突触。其性能相比于第一代有了不少提升。功耗每平方厘米消耗仅为 20 毫瓦,是第一代的百分之一,直径仅有几厘米,是第一代的十五分之一。
“TrueNorth”的每个处理核包含了约120万个晶体管,其中少量晶体管负责数据处理和调度,而大多数晶体管都用作数据存储、以及与其它核心的通信方面。此外,每个核心都有自己的本地内存,它们还能通过一种特殊的通信模式与其它核心快速沟通,其工作方式非常类似于人脑神经元与突触之间的协同,只不过,化学信号在这里变成了电流脉冲。IBM把这种结构称为“神经突触内核架构”,如果 48 颗TrueNorth芯片组建起具有 4800 万个神经元的网络,那这48颗芯片带来的智力水平将相似于普通老鼠。
16年,IBM又公布了与美国空军研究实验室、美国陆军研究实验室、以及劳伦斯•利物莫国家实验室在TrueNorth芯片应用方面合作的最新成果,包括手指识别、情绪识别、图像分类和对象追踪等。
2017年,英特尔发布了Loihi芯片,它采用了一种新颖的方式通过异步脉冲来计算,同时整合了计算和存储,模仿了大脑根据环境的各种反馈来学习如何操作的运作方式,可以利用数据来学习并做出推断,随着时间的推移也会变得更加的智能,并且不需要以传统方式来进行训练。
Intel Loihi类脑芯片
Loihi采用的是异构设计,由128个Neuromorphic Core(神经形态的核心)+3个低功耗的英特尔X86核心组成,号称拥有13万个神经元和1.3亿个触突。
与 TrueNorth 和Loihi不同, 高通公司开展研究的是Zeroth “认知计算平台”,曾在业界引起了巨大的震动。原因就在于它可以融入到高通公司量产的 Snapdragon处理器芯片中,以协处理的方式提升系统的认知计算性能,并可实际应用于手机和平板电脑等设备中,支持诸如语音识别、图像识别、场景实时标注等实际应用并且表现卓越。
三、中国的类脑芯片
中国也十分重视类脑研究,不仅在2015年将脑计划作为重大科技项目列入国家“十三五”规划,还发布了关于脑计划“一体两翼”的总体战略:一体即认识脑:以阐释人类认知的神经基础为主体和核心;两翼即保护脑:预防、诊断和治疗脑重大疾病和模拟脑:类脑计算。
中国的学术界也展开了对类脑的研究,2015 年中科院、清华、北大,相继成立“脑科学与类脑智能研究中心”,2017年5月在合肥成立了类脑智能技术及应用国家工程实验室。这些实验室将借鉴人脑机制攻关人工智能技术,推进类脑神经芯片、类脑智能机器人等新兴产业发展。
同时,国内也出现了专注类脑芯片研发的初创团队,像西井科技、AI-CTX、浙大的达尔文芯片等。
四、类脑芯片的最新进展
目前学术界有关类脑芯片也有了一些新的进展,17年清华大学微电子所钱鹤、吴华强课题组在《Nature Communications》在线发表了题为《使用电子突触阵列实现人脸识别》的研究成果,将氧化物忆阻器的集成规模提高了一个数量级,首次实现了基于1024个氧化物忆阻器阵列的类脑计算。该成果在最基本的单个忆阻器上实现了存储和计算的融合,采用完全不同于传统“冯•诺依曼架构”的体系,可以使芯片更加高效地完成计算任务,使能耗降低到原千分之一以下。
2018年,麻省理工的工程师设计了一种人造突触,可以实现精确控制流过这种突触的电流强度,即类似离子在神经元之间的流动。研究发表在《Nature Materials》上,这一成果也被认为是迈向用于模式识别和其它学习任务的便携式低功耗神经形态芯片的重要一步。
五、总结
类脑智能研究已取得了阶段性的进展,但是目前仍然没有任何一个智能系统能够接近人类水平,下一阶段类脑芯片的研究重点是增强神经计算电路模块的通用性,降低设计、制造的难度;此外,还需要迫切解决类脑计算芯片的功耗问题,比如探索超低功耗材料以及计算结构,为进一步提高类脑计算芯片的性能奠定基础。
未来,我们期待类脑计算领域的重大突破,为信息产业提供革命性的发展机遇。