广告

如果芯片也能“闻香识女人”

时间:2020-04-11 作者:邵乐峰 阅读:
今年3月,英特尔连续宣布在神经拟态计算领域取得两项重大进展,尤其是让芯片具备“嗅觉”能力,让业界看到了未来计算的新形态。为什么要研究神经拟态计算?在脑科学尚未被得到完全认知的时候就从事类脑计算,是否有这样的必要?
广告

今年3月16日,英特尔研究院与美国康奈尔大学的研究人员在《自然-机器智能》(Nature Machine Intelligence)杂志上联合发表了一篇论文,展示了通过采用一套源自大脑嗅觉回路结构和动力学的神经算法,对英特尔神经拟态研究芯片(Neuromorphic chips) Loihi进行训练,使其能够在存在明显噪声和遮盖的情况下,具备学习和识别10种危险化学品气味的能力,其中包括丙酮、氨和甲烷。未来,这样的神经拟态计算系统将被用于环境监测、危险物质检测、工厂质量控制等领域。(相关:英特尔Loihi神经拟态芯片与AI芯片相比有何优势?

英特尔研究院科学家Nabil Imam在位于美国加州圣克拉拉的神经拟态计算实验室中,手持一块Loihi神经拟态测试芯片。他和美国康奈尔大学的一个研究小组正在计算机芯片上构建数学算法,用于模拟人们闻到某种气味时大脑神经网络的反应。(图片来源:Walden Kirsch/英特尔公司)

2天后,3月18日,英特尔继续宣布其最新神经拟态研究系统Pohoiki Springs已准备就绪。Pohoiki Springs是一个数据中心机架式系统,它将768块Loihi芯片集成在5台标准服务器大小的机箱中,能够提供1亿个神经元的计算能力。而在2019年7月,包含64块Loihi芯片,代号为“Pohoiki Beach”的800万神经元神经拟态系统已经被用于稀疏编码、图搜索和约束满足问题等专业应用领域。

数据中心机架式系统Pohoiki Springs(资料来源: Tim Herman/英特尔公司)

从13万到1亿

作为英特尔中国研究院院长,神经拟态计算是宋继强博士领导的英特尔中国研究院重点关注的前沿科学之一。之所以要给予高度关注,是因为人脑的能耗只有20瓦,仅用其中的部分能耗,人脑就能书写、绘画,可以较为轻松的识别分析很抽象的事物和情感,这是目前标准通用计算无法做到的。那么,怎样才能将数十千瓦能耗的计算降低到人脑这种20瓦的水平?

其实Loihi神经拟态芯片在2017年就已经面世,它内置了128个核,拥有13万个神经元和1.3亿突触,还包括了片上存储结构。说的更容易理解一些,1只瓢虫的大脑大约有25-50万神经元,蟑螂大脑约有100万神经元,斑马鱼大脑约有1000万神经元,仓鼠大脑约有9000万个神经元。而Pohoiki Springs的1亿神经元,已经相当于一个小型哺乳动物大脑神经元的数量总和。

为什么要做这么大规模的系统?按照宋继强博士给出的解释,这是因为研究发现,Loihi系统规模的增加与更好更快的解决大规模实际问题之间,存在着直接线性的收益。但他认为现在就去判断神经拟态大规模应用的时间和所谓的杀手级应用还为时尚早,一两年后可能会有更清晰的看法。

神经拟态计算属于在传统半导体工艺和芯片架构上的一种尝试和突破,通过模拟人脑神经元的构造和神经元之间互联的机制,能够在低功耗以及少量训练数据的条件下持续不断自我学习,大幅提高了能效比。

从时间节点上来看,神经拟态计算概念提出的时间比量子计算提出的时间更晚,并且由于对人脑了解进展非常缓慢,神经拟态计算的研究进展也比较慢。目前,神经拟态计算的研究有一些实验室和初创公司,大公司只有IBM和英特尔。

研究机构Gartner预测,2025年,神经拟态芯片有望取代GPU,成为先进人工智能部署的主要计算架构,但宋继强并不同意这样的判断。“神经拟态计算不会取代现有的CPU、GPU和FPGA等芯片,神经拟态芯片主要是希望去解决在较低功耗下完成前端感知,且需要持续需要学习以提高识别能力的应用,这些应用能很好地发挥神经拟态计算的优势。对于游戏读取、图像分类、标注等应用,现有的芯片就可以很好满足。”他说。

三维挑战

在英特尔的官方描述中,神经拟态计算被定义为“Next Generation of AI”。硬件层面,以Loihi为例,它采用了异步脉冲方式设计,由多个独立的时钟驱动,用户可根据应用的需求,只让需要工作的部分工作,其它部分处于待机状态,因此功耗能够达到毫瓦级。同时,也可以根据应用需求去扩展系统,兼具灵活和低成本的优势;软件和应用层面,神经拟态计算芯片可以方便构建一个包含时间和空间处理的模型,然后对数据进行模式的匹配,仅需一个样本的训练就得到超过90%的高准确率。如果使用传统方法,要达到与Loihi相同的分类准确率,学习一类气味就需要3000倍以上的训练样本。

“为什么要使用异步脉冲方式设计?是因为我们想实现极低的功耗。”宋继强解释说,CPU、GPU、FPGA采用的都是同步电路设计方式,也就是采用同一个时钟驱动,芯片内的计算单元和存储单元根据这个共同的时钟同时工作和停止工作,这种设计的好处是可以解决大规模集成电路容易出错的问题,但工作效率不够高。

而作为类脑芯片,Loihi采用的异步电路与同步电路最大的差异在于使用了分立而非同步时钟进行驱动。也就是说,在处理不同任务时,只有与该任务相关的电路在工作,其余部分仍旧保持待机状态,这也与人类大脑的工作模式类似。试想一下,我们的大脑是在一直工作吗?在处理一个任务时,是所有区域都会参与其中吗?显然不是。

这么看来,一方面,我们需要能够更好地理解大脑在实时处理复杂信息的同时却只消耗极少能量的高效工作机制,并把这些机制用到芯片中去。另一方面,为了获得更高的性能,又需要将神经拟态计算芯片进行互联获得线性的性能增长,这就给系统设计人员带来了三个维度的挑战:首先,要考虑如何在最下层将多块全数字异步设计的芯片互联起来,并同时确保连接的有效性和时效性;其次,中间软件层该如何支持芯片的互连计算、分布式计算和灵活分区;最后,为了支持更大规模的动态规划和优化实验支持,上层软件工具链就非常重要。

数据少,能不能做AI ?

目前为止,人工智能在视觉、听觉两方面取得了极大的突破。宋继强认为这在很大程度上归功于人类能够非常容易的获得视觉和听觉这两类数据,容易标注,容易根据不同的语境/语义进行分类,完全符合深度学习对数据的几大要求:数据量足够;有标注好的数据;有可用于训练的数据池和测试的集合,这样训练出来的模型能够很好地处理真实场景。而事实上,现有的深度神经网络比较擅长做的事,也是对于视觉数据和语音数据进行处理。但对嗅觉和味觉来说,情况就有些特殊,数据量和可标注的数据都比较少,检测手段也不够高明,所以整体发展相比视觉和听觉落后很多。

按照Gartner给出的AI发展路线图,AI的发展已经开始从2.0走向3.0时代。统计式学习、数据库命令的机器学习、依靠大规模数据训练得到模型,然后再将其应用于某些特定领域中,是AI 2.0时代的典型标志。但在接下来的AI 3.0时代,人们希望AI能从更少量的数据中学习,能够适应环境变化、做推理、被解释,做到“边工作、边学习、边演进”,不光支持前端传感器的低功耗事件,还可以支持包括深度神经网络(DNN)、卷积神经网络、脉冲神经网络(Spiking Neuron Networks)在内的多种学习模型,当前的传统AI硬件可能会在技术支撑方面遇到难题。

下图很好地解释了如何通过神经拟态芯片进行“嗅觉”分辨的机理。首先想一想我们是如何识别气味的?比如拿起一个水果闻一闻,水果分子就会刺激鼻腔内的嗅觉细胞。鼻腔内的细胞会立即向你的大脑嗅觉系统发送信号,一组相互连接的神经元中的电脉冲就会在这个嗅觉系统中产生嗅觉。无论闻到的是什么气味,大脑中的神经元网络都会产生该物体特有的感觉。同样,人类的视觉和听觉、回忆、情绪和决策都有各自的神经网络,它们都以特定的方式进行计算。

而“电子鼻系统”则是通过构造一个类似人类鼻腔的构造,用化学/有机物传感器阵列代替感知细胞,在气味经过的时候形成时间脉冲序列,然后产生空间分布,从而产生与人类嗅觉系统较为接近的感知机理,再利用搭载的脉冲神经网络模型对采集到的数据进行模式匹配,如果匹配成功,系统就会产生最高响应。

也就是说,Loihi嗅觉系统的网络构造借鉴了人类嗅觉系统结构设计,但它是全新的模型设计,硬件架构有比较大的改变。因为它本身利用了人脑神经元,基于直接脉冲序列,强度可以累积,运用模拟而不是纯数字方式工作类脑器件。在此基础之上,既可以用低功耗方式将现有深度神经网络移植上去,也可以利用脉冲神经网络(SNN)以非深度学习方式进行神经拟态计算。而SNN的优势在于充分考虑了时间序列上的差异,把多个输入其中的时间差异编在一起,去模仿人类的感知和处理节奏,这和现有基于大数据的深度学习机理完全不同。

不过,类脑研究非常缓慢,只对神经元和视觉/听觉/嗅觉感知机理有所了解还远远不够,很多深层次的形成机理尚在研究阶段。至少在嗅觉领域,相似的气味就很可能会在大脑中引发相似的神经活动模式。有时候,即便是人类自身,也很难分辨出究竟是一种气味还是多种香味的混合。

因此,目前神经拟态芯片的研究还只是停留在通过算法搭建比较复杂的脑神经元工作模型,实现信息“激励”与一定规模的连接,以及通过忆阻器等底层器件进行“近内存计算”的阶段。接下来,除了继续了解人脑认知机制外,更重要的是需要找到好的应用导向,不断扩大社区范围,要让不同社区不同种类的研究人员能够比较容易的去使用新硬件去解决AI规划、优化和计算问题。

那么,“是否需要等到人类对于脑的认识有了足够充分的了解之后,再去进行神经拟态研究呢?”宋继强对此给出了否定的回答,他认为确实需要借鉴脑科学的进展,但不必等到所有脑的秘密全都揭开,我们才能达到一个大的突破,这个突破始终都在发生,神经拟态计算也是一样。

目前,人类对脑神经元的工作模式、突触之间的连接,彼此之间多种学习的方法(监督学习的、无监督学习、关联学习、谈话学习)已经有所了解,其实就可以用现有硬件架构体系进行支持,在上层提供底层软件堆栈后开放给社区使用。这与深度学习的发展历程是相似的,都是先通过简单应用实现突破,带动产业正向推动,然后实现软硬件系统成本的大幅度下降。

相关推荐:

【音频广播】英特尔Loihi神经拟态芯片与AI芯片相比有何优势?

本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
邵乐峰
ASPENCORE 中国区首席分析师。
  • 2021年全球半导体行业10大技术趋势 2020年全球新冠疫情的蔓延和中美在半导体领域的冷战升级虽然对全球经济和半导体产业造成了负面影响,但半导体领域的技术进步却没有止步,有些技术甚至加快了市场商用化进程。ASPENCORE全球分析师团队精心挑选出2021年全球半导体行业将出现或凸显的10大技术趋势。对比2020年10大技术趋势,2021年有哪些变化呢?
  • 系统级芯片(SoC)的复杂设计选择:内核、IP、EDA和NoC SoC的功能、性能和应用越来越复杂,对芯片设计和晶圆制造也提出了更高的要求。 而SoC设计工程师所面对的选择很多,包括处理器内核、各种IP模块、EDA工具和开发环境,以及RF射频模块、片上网络(NoC)和FPGA等,如何做出符合自己应用和设计需要的最佳选择成了一大难题。为此,《电子工程专辑》采访了来自处理器内核、EDA和IP、NoC供应商,以及FPGA和SoC芯片设计公司的技术和设计专家,他们从各自的角度出发给出了深入而独到的建议。
  • AI的训练与推理,会往哪个方向发展? Graphcore公司CEO Nigel Toon先生多年前曾经专门撰文提过,训练和推理的问题。Graphcore的IPU同时支持训练和推理,不过“如果你根据训练和推理来看IPU,那么你可能对机器学习硬件有些误解。”“对于IPU是针对训练还是推理的问题,我的回答可能会让很多人惊讶。”
  • 先进电子显微镜成像技术揭露垂直共振腔面射雷射的制程 本次制程分析的主轴为近期商用领域中的大热门,应用在人脸识别系统的垂直共振腔面射雷射。由制程工艺的角度出发,决定垂直共振腔面射雷射的质量有三大方面。
  • 首款ISP处理器面世!安谋中国发布“玲珑”多媒体产品线 12月3日消息,安谋中国今天发布了全新“玲珑”多媒体产品线,其中首款产品“玲珑”i3/i5 ISP处理器由安谋中国本土团队自主研发,在降噪、清晰度和宽动态等指标上达到业界领先水平,具有高画质、低延时、可配置能力强、扩展兼容性高等特点。
  • 揭露Apple Mini M1 SoC 经过多年的揣摩和数月的努力后,苹果公司(Apple)成功推出了第一款采用自家芯片设计的台式电脑和笔记本电脑——M1 SoC。至于Apple此次的表现是否达到预期无需多言,毕竟他家的产品一直都受大众的追捧。
广告
热门推荐
广告
广告
广告
EE直播间
在线研讨会
广告
广告
面包芯语
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了