向右滑动:上一篇 向左滑动:下一篇 我知道了
广告

你的AI芯片有自己的DNN吗?

时间:2019-10-11 作者:Junko Yoshida 阅读:
为了让AI加速器在最短延迟内达到最佳精准性,特别是在自动驾驶汽车(AV)中,TFLOP(万亿次浮点运算)已经成为许多所谓大脑芯片的关键指标。然而,有专家认为这种野蛮处理方式并不可持续。在EE Times的一次独家专访中,DeepScale的首席执行官Forrest Iandola给出了其不可持续的理由,是因为AI硬件设计师所持有的许多常见的假设已经过时。
电子工程专辑 EE Times China -提供有关电子工程及电子设计的最新资讯和科技趋势

为了让AI加速器在最短延迟内达到最佳精准性,特别是在自动驾驶汽车(AV)中,TFLOP(万亿次浮点运算)已经成为许多所谓大脑芯片的关键指标。这场竞赛的选手包括英伟达的Xavier、Mobileye的EyeQ5、特斯拉的全自动驾驶(FSD)电脑芯片,以及NXP-Kalray芯片。3iJEETC-电子工程专辑

然而,有专家认为这种野蛮处理方式并不可持续。在EE Times的一次独家专访中,DeepScale的首席执行官Forrest Iandola给出了其不可持续的理由,是因为AI硬件设计师所持有的许多常见的假设已经过时。Iandola清楚地认识到,随着AI应用日益增多,AI供应商从中积累更多的经验,这导致不同的AI任务开始需求不同的技术方法。如果事实的确如此,AI用户购买AI技术的方式将会改变,供应商也必将做出回应。3iJEETC-电子工程专辑

3iJEETC-电子工程专辑
图13iJEETC-电子工程专辑

Iandola表示:就拿神经网络架构搜索(NAS)来说吧,其快速发展不仅加快优化深度神经网络(DNN)的搜索过程,并降低这一过程的成本。他相信有一种方法可以“在目标任务和目标计算平台上建立最低延迟、最高精度的DNN”,而不是依赖于更大的芯片来处理所有的AI任务。3iJEETC-电子工程专辑

Iandola设想未来AI芯片或传感器系统(如计算机视觉、雷达或激光雷达)供应商不仅提供硬件,而且还会提供自己的高速、高效的DNN——为应用而设计的DNN。任何给定的供应商都会为不同的计算平台匹配各自所需的DNN。如果事实真是如此,那AI竞赛中的所有赌注都将失效。3iJEETC-电子工程专辑

需要明确的是,目前无论是芯片公司还是传感器供应商都没有提出上述前景。甚至很少有人在特定硬件上运行有针对性的AI任务的可能性。3iJEETC-电子工程专辑

Iandola及其DeepScale团队最近设计了一系列DNN模型,称为“SqueezeNAS”3iJEETC-电子工程专辑

在最近的一篇论文中,他们声称,当在目标平台上搜索延迟时,squezeNAS“可以建立更快、更准确的模型”。这篇论文推翻了AI社区先前对NAS、乘积累加 (MAC) 运算和将ImageNet精度应用于目标任务时所做的一些假设。3iJEETC-电子工程专辑

DeepScale于2015年由Iandola和Kurt Keutzer教授共同创立,是一家位于加利福尼亚州山景城的初创公司,致力于开发“微型DNN”。两位联合创始人曾在加州大学伯克利分校共事。DeepScale因其快速高效的DNN研究而在科学界备受推崇。3iJEETC-电子工程专辑

手工设计

要想真正理解机器学习在计算机视觉方面的最新进展的意义,需要了解一下其发展历史。3iJEETC-电子工程专辑

还记得AlexNet 网络结构模型在2012年赢得 ImageNet 图像分类赛吗?这为研究人员打开了竞争的大门,让他们专注于ImageNet研究 ,并寻找能够在计算机视觉任务上达到最高精度的DNN,以此开展竞争。3iJEETC-电子工程专辑

20191011-101.jpg3iJEETC-电子工程专辑
图23iJEETC-电子工程专辑

通常,这些计算机视觉研究人员依靠专家工程师,他们会手工设计快速和高精度DNN架构。3iJEETC-电子工程专辑

从2012年到2016年,他们提高了计算机视觉的准确性,但都是通过大幅增加运行DNN所需资源来实现这一目标。Iandola解释说,例如,赢得2014年ImageNet比赛冠军的VGGNet,其使用的计算量是AlexNet的10倍,参数是AlexNet的2倍。3iJEETC-电子工程专辑

到2016年,学术研究届发现通过增加DNN的资源需求来提高准确性是“不可持续的”。 SqueezeNet便是研究人员寻找的众多替代方案之一,由Iandola及其同事在2016年发表,它展示出在微小预算(低于5MB)参数下ImageNet的“合理的准确性”。3iJEETC-电子工程专辑

Squeezenet引发了两个重大变化。相对于SqueezeNet和其他早期运算而言, MobileNetV1能够大幅度减少乘积累加运算 (MAC)的数量。 Shufflenetv1是为移动端CPU实现低延迟而优化的DNN。3iJEETC-电子工程专辑

利用机器学习(ML)改进机器学习

如前所述,所有这些先进DNN都是通过人工设计和调整神经网络架构开发而成。由于人工流程需要专业的工程师大量的试错,这很快就成为一个成本太高、耗时太久的提议。3iJEETC-电子工程专辑

因而基于机器学习,实现人工神经网络设计自动化的理念,即NAS应运而生。NAS是一种搜索最佳神经网络架构的算法。3iJEETC-电子工程专辑

NAS改变了AI格局。Iandola称,“到2018年,NAS已经开始构建能够以较低延迟运行的DNN,并且比以前手工设计的DNN产生更高的准确性。”。”3iJEETC-电子工程专辑

强化学习

随后,计算机视觉界开始使用基于机器学习(ML)的强化方法——强化学习(RL)。3iJEETC-电子工程专辑

换句话说,“机器学习得到反馈来改进机器学习,” Iandola解释说。在基于RN的NAS下,未经训练的RL获得建议,指定层数和参数来训练DNN架构。一旦对DNN进行训练,训练运行的结果将作为反馈,从而推动RL运行更多DNN来开展训练。3iJEETC-电子工程专辑

经证明,基于RL的NAS是有效的。谷歌MnasNet就是一个很好的例子,它在ImageNet延迟和准确性方面都优于ShuffleNet。但它也有一个关键的弱点: 成本太高。基于RL的搜索通常需要数千个GPU天数(GPU day),以训练数百乃至数千个不同的DNN,才能生成理想的设计。“谷歌负担得起,” Iandola表示,但大多数其它公司负担不起。3iJEETC-电子工程专辑

现实地说,一个基于RL的NAS要训练一千个DNN,每个DNN通常需要一个GPU天数。考虑到目前亚马逊云服务平台的价格,Iandola估计,一个使用基于RL的NAS搜索所花费的云计算时间可能耗资高达7万美元。3iJEETC-电子工程专辑

超级网络

在这种情况下,去年年底出现了一种新的NAS类型,称为基于“超级网络”的搜索。它的典型代表包括FBNet (Facebook伯克利网络)和SqueezNet。3iJEETC-电子工程专辑

20191011-102.jpg3iJEETC-电子工程专辑
图33iJEETC-电子工程专辑

Iandola解释说:“超级网络采用一步到位的方法,而不是培训1000个独立的DNN。”3iJEETC-电子工程专辑

例如,一个DNN有20个模块,每个模块有13个选项。若为每个模块选择一个最喜欢的选项,“你正在以10个DNN训练运行花费为代价,一次性训练一个汇集了千万亿种DNN设计的DNN,”Iandola解释说。3iJEETC-电子工程专辑

结果表明,基于超级网络的NAS可以在10个GPU日的搜索时间内建立DNN,其延迟和准确性优于MnasNet。 “这让搜索成本从70,000多美元减少到大约700美元亚马逊云服务GPU时间,”Iandola说道。3iJEETC-电子工程专辑

“10个GPU天数”的搜索时间相当于在一台如衣柜般大小的8 GPU机器上花费一天的时间,” Iandola解释说。3iJEETC-电子工程专辑

20191011-103.jpg3iJEETC-电子工程专辑
图43iJEETC-电子工程专辑

过时的假设

机器学习的简短历史向我们展示神经结构搜索的出现如何为计算机视觉研究奠定了基础。但是在这个过程中,它也反驳了研究团体早期的一些假设,Iandola指出。3iJEETC-电子工程专辑

那么,哪些假设需要纠正呢?3iJEETC-电子工程专辑

Iandola称,大多数AI系统设计者认为,ImageNet分类中最精确的神经网络可以为目标任务提供最精确的骨干网络。但计算机视觉包括许多AI任务——从目标检测、分割和3D空间到目标跟踪、距离估计和自由空间等。“并非所有任务都是平等的,” Iandola强调。3iJEETC-电子工程专辑

ImageNet的准确性与目标任务的准确性没有太紧密的关联。“这没法保证,”他说。3iJEETC-电子工程专辑

看看由Iandola团队创建的SqueezeNet。Iandola解释道,这是一个小型的神经网络,它的ImageNet分类精度明显低于VGG,但在“用于识别一组图像中相似斑块的任务”时,它比VGG更准确。3iJEETC-电子工程专辑

随着分类任务达到极限,Iandola坚信是时候为不同的任务设计不同的神经网络了。3iJEETC-电子工程专辑

另一个普遍的假设是“在目标计算平台上减少乘积累加运算(MAC)将产生更低的延迟。”3iJEETC-电子工程专辑

然而,最近的研究表明,减少MAC与减少延迟并无太大关联。“拥有较少MAC的神经网络并不总是能够实现较低的延迟,”Iandola指出。3iJEETC-电子工程专辑

在Iandola的SqueezeNAS论文中,他坚持认为,不仅仅是不同的AI任务需要不同的DNN。为目标计算平台(如CPU、GPU或TPU的特定版本)选择合适的DNN也非常重要。3iJEETC-电子工程专辑

例如,他引用了为不同智能手机优化网络的FBNet作者的话。他们发现DNN在iPhonex上运行得很快,但在三星Galaxy S8上运行得很慢。在论文中,Iandola的团队总结道,“即使MACs的数量保持不变,不同的卷积维数也会根据处理器和内核实现决定运行得更快或更慢。”3iJEETC-电子工程专辑

对自动驾驶的影响

今天,DeepScale已经与多家汽车供应商建立了合作关系,包括Visteon、Hella Aglaia Mobile Vision GmbH和其它未透露名称的公司。DeepScale一直在开发微型DNN。该公司声称,他们在保证最先进的性能的同时,它们需要的计算量更少。3iJEETC-电子工程专辑

在SqueezNas的论文中,Iandola和他的同事解释道,其团队使用基于超级网络的NAS来设计一个用于语义分割的DNN,用于识别道路、车道、汽车和其它物体的精确形状等具体任务。“我们对NAS系统进行配置,以优化 Cityscapes语义分割数据集的高精度,同时在小型汽车级计算平台上实现低延迟。”3iJEETC-电子工程专辑

随着SqueezNAS的发展,DeepScale对自己的定位是:在优化DNN、AI硬件和特定AI任务之间的协同关系方面成为先行者。3iJEETC-电子工程专辑

随着AI芯片即将席卷市场,Iandola认为系统设计师必须明智地选择加速器。他们应该确切地考虑硬件应该执行哪种AI任务,以及硬件加速器应该在哪种神经网络上运行。3iJEETC-电子工程专辑

安全摄像头、自动驾驶汽车和智能手机都将使用AI芯片。考虑到每个系统所需的速度、准确性、延迟和应用程序大不相同,确定合适的硬件和NAS就变得至关重要。3iJEETC-电子工程专辑

Iandola表示:,对于OEM车厂来说,要把一个测试版AV变成一个商业产品,必须把目前存储在AV车后箱中的刀片服务器抽取出来。Iandola预测,汽车制造商可能会要求硬件芯片公司提供适合硬件平台的优化DNN。3iJEETC-电子工程专辑

对于英伟达这样的公司来说,这可能不成问题,因为它的GPU得到了一个大型软件生态系统的支持。然而,大多数其他AI硬件供应商将会出一身冷汗。3iJEETC-电子工程专辑

此外,随着一系列新的传感器——摄像头、激光雷达和雷达—被设计成AVs,汽车原始设备制造商将面临一些残酷的现实。例如,每个传感器可能使用不同类型的神经网络。另一个例子是,不同品牌设计的激光雷达使用不同的AI硬件。Iandola指出,“今天,无论是传感器供应商还是AI处理器公司都没有提供针对其硬件进行优化推荐的神经网络。”3iJEETC-电子工程专辑
Iandola表示,OEM车厂和一级零部件供应商将开始要求优化DNN,以匹配特定硬件和AI任务, 这将无法避免。“我们相信,使用NAS优化目标计算平台上的低延迟变得越来越重要。”3iJEETC-电子工程专辑

随着基于超级网络的NAS的出现,NAS的成本已经在下降。因此,现在可能是时候让硬件供应商开始寻找自己的优化DNN。当被问及DeepScale是否计划通过合作、授权或为AI硬件公司开发优化DNN来填补这一缺口时,Iandola说道,“我们还没有真正考虑过这个问题。”3iJEETC-电子工程专辑

本文同步刊登于电子工程专辑杂志2019年10月刊3iJEETC-电子工程专辑

责编:Yvonne Geng3iJEETC-电子工程专辑

电子工程专辑 EE Times China -提供有关电子工程及电子设计的最新资讯和科技趋势
本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
Junko Yoshida
ASPENCORE全球联席总编辑,首席国际特派记者。曾任把口记者(beat reporter)和EE Times主编的Junko Yoshida现在把更多时间用来报道全球电子行业,尤其关注中国。 她的关注重点一直是新兴技术和商业模式,新一代消费电子产品往往诞生于此。 她现在正在增加对中国半导体制造商的报道,撰写关于晶圆厂和无晶圆厂制造商的规划。 此外,她还为EE Times的Designlines栏目提供汽车、物联网和无线/网络服务相关内容。 自1990年以来,她一直在为EE Times提供内容。
您可能感兴趣的文章
  • 英特尔AI团队正研发基于AI技术的智能脊柱接口 美国布朗大学、英特尔、罗得岛医院和Micro-Leads Medical的工程师与神经科学家正连手开发基于AI技术的智能脊柱接口,期望协助脊髓损伤患者重建其肢体功能...
  • 美国将海康威视等28家中企与机构新增入实体清单 据新华社报道,应美方邀请,中共中央政治局委员、国务院副总理、中美全面经济对话中方牵头人刘鹤将率团访问华盛顿,于10月10日至11日同美国贸易代表莱特希泽、财政部长姆努钦举行新一轮中美经贸高级别磋商。但在会谈开始前,美国商务部将中国28家实体增列入出口管制“实体清单”……
  • 任正非:5G技术只卖给美国 近日,继华为曝出有意将5G技术出售给西方公司后,昨天下午,任正非接受采访表示:华为5G技术只能独家许可给美国公司。任正非说道,5G技术只独家卖给美国!不卖给韩国、日本、欧洲...
  • 解读Arm与华为的闭门会议透露的三点“不变”的讯息 从1991年到2017年,Arm花了26年的时间才实现了1000亿颗Arm架构芯片的出货。但按照预测,这一数字扩大到2000亿颗将是在不久的2021年,仅4年时间。基于Arm架构的芯片出货量增长速度惊人!然而,今年五月Arm突然“断供”华为让业界议论纷纷。高通“断供”,华为尚有麒麟芯片接替,但Arm断供了呢? 根据Arm财报,2018年其中国区销售额占公司整体的20%,2017年全球Arm手机处理器的市场份额超过90%。而国产SoC中,有95%是基于Arm处理器技术,由此可见Arm在手机CPU市场占据着垄断的市场地位。如果Arm真的断供,其影响可想而知。幸好好消息来了。
  • 格芯推出12LP+ FinFET制程,2021年正式量产 该创新解决方案基于格芯最先进的FinFET平台,具有一流的性能、能够满足不断变化的人工智能需求的多项全新重要特性、引人注目的经济效应和业界领先的Arm物理IP。
  • Wave Computing CEO离职,MIPS架构前途堪忧 硅谷AI新创公司Wave Computing在9月初悄悄地更换了公司CEO,没有发布官方信息...
相关推荐
    广告
    近期热点
    广告
    广告
    广告
    可能感兴趣的话题
    广告