向右滑动:上一篇 向左滑动:下一篇 我知道了
广告

你的AI芯片有自己的DNN吗?

时间:2019-10-11 作者:Junko Yoshida 阅读:
为了让AI加速器在最短延迟内达到最佳精准性,特别是在自动驾驶汽车(AV)中,TFLOP(万亿次浮点运算)已经成为许多所谓大脑芯片的关键指标。然而,有专家认为这种野蛮处理方式并不可持续。在EE Times的一次独家专访中,DeepScale的首席执行官Forrest Iandola给出了其不可持续的理由,是因为AI硬件设计师所持有的许多常见的假设已经过时。
电子工程专辑 EE Times China -提供有关电子工程及电子设计的最新资讯和科技趋势

为了让AI加速器在最短延迟内达到最佳精准性,特别是在自动驾驶汽车(AV)中,TFLOP(万亿次浮点运算)已经成为许多所谓大脑芯片的关键指标。这场竞赛的选手包括英伟达的Xavier、Mobileye的EyeQ5、特斯拉的全自动驾驶(FSD)电脑芯片,以及NXP-Kalray芯片。KL4EETC-电子工程专辑

然而,有专家认为这种野蛮处理方式并不可持续。在EE Times的一次独家专访中,DeepScale的首席执行官Forrest Iandola给出了其不可持续的理由,是因为AI硬件设计师所持有的许多常见的假设已经过时。Iandola清楚地认识到,随着AI应用日益增多,AI供应商从中积累更多的经验,这导致不同的AI任务开始需求不同的技术方法。如果事实的确如此,AI用户购买AI技术的方式将会改变,供应商也必将做出回应。KL4EETC-电子工程专辑

KL4EETC-电子工程专辑
图1KL4EETC-电子工程专辑

Iandola表示:就拿神经网络架构搜索(NAS)来说吧,其快速发展不仅加快优化深度神经网络(DNN)的搜索过程,并降低这一过程的成本。他相信有一种方法可以“在目标任务和目标计算平台上建立最低延迟、最高精度的DNN”,而不是依赖于更大的芯片来处理所有的AI任务。KL4EETC-电子工程专辑

Iandola设想未来AI芯片或传感器系统(如计算机视觉、雷达或激光雷达)供应商不仅提供硬件,而且还会提供自己的高速、高效的DNN——为应用而设计的DNN。任何给定的供应商都会为不同的计算平台匹配各自所需的DNN。如果事实真是如此,那AI竞赛中的所有赌注都将失效。KL4EETC-电子工程专辑

需要明确的是,目前无论是芯片公司还是传感器供应商都没有提出上述前景。甚至很少有人在特定硬件上运行有针对性的AI任务的可能性。KL4EETC-电子工程专辑

Iandola及其DeepScale团队最近设计了一系列DNN模型,称为“SqueezeNAS”KL4EETC-电子工程专辑

在最近的一篇论文中,他们声称,当在目标平台上搜索延迟时,squezeNAS“可以建立更快、更准确的模型”。这篇论文推翻了AI社区先前对NAS、乘积累加 (MAC) 运算和将ImageNet精度应用于目标任务时所做的一些假设。KL4EETC-电子工程专辑

DeepScale于2015年由Iandola和Kurt Keutzer教授共同创立,是一家位于加利福尼亚州山景城的初创公司,致力于开发“微型DNN”。两位联合创始人曾在加州大学伯克利分校共事。DeepScale因其快速高效的DNN研究而在科学界备受推崇。KL4EETC-电子工程专辑

手工设计

要想真正理解机器学习在计算机视觉方面的最新进展的意义,需要了解一下其发展历史。KL4EETC-电子工程专辑

还记得AlexNet 网络结构模型在2012年赢得 ImageNet 图像分类赛吗?这为研究人员打开了竞争的大门,让他们专注于ImageNet研究 ,并寻找能够在计算机视觉任务上达到最高精度的DNN,以此开展竞争。KL4EETC-电子工程专辑

20191011-101.jpgKL4EETC-电子工程专辑
图2KL4EETC-电子工程专辑

通常,这些计算机视觉研究人员依靠专家工程师,他们会手工设计快速和高精度DNN架构。KL4EETC-电子工程专辑

从2012年到2016年,他们提高了计算机视觉的准确性,但都是通过大幅增加运行DNN所需资源来实现这一目标。Iandola解释说,例如,赢得2014年ImageNet比赛冠军的VGGNet,其使用的计算量是AlexNet的10倍,参数是AlexNet的2倍。KL4EETC-电子工程专辑

到2016年,学术研究届发现通过增加DNN的资源需求来提高准确性是“不可持续的”。 SqueezeNet便是研究人员寻找的众多替代方案之一,由Iandola及其同事在2016年发表,它展示出在微小预算(低于5MB)参数下ImageNet的“合理的准确性”。KL4EETC-电子工程专辑

Squeezenet引发了两个重大变化。相对于SqueezeNet和其他早期运算而言, MobileNetV1能够大幅度减少乘积累加运算 (MAC)的数量。 Shufflenetv1是为移动端CPU实现低延迟而优化的DNN。KL4EETC-电子工程专辑

利用机器学习(ML)改进机器学习

如前所述,所有这些先进DNN都是通过人工设计和调整神经网络架构开发而成。由于人工流程需要专业的工程师大量的试错,这很快就成为一个成本太高、耗时太久的提议。KL4EETC-电子工程专辑

因而基于机器学习,实现人工神经网络设计自动化的理念,即NAS应运而生。NAS是一种搜索最佳神经网络架构的算法。KL4EETC-电子工程专辑

NAS改变了AI格局。Iandola称,“到2018年,NAS已经开始构建能够以较低延迟运行的DNN,并且比以前手工设计的DNN产生更高的准确性。”。”KL4EETC-电子工程专辑

强化学习

随后,计算机视觉界开始使用基于机器学习(ML)的强化方法——强化学习(RL)。KL4EETC-电子工程专辑

换句话说,“机器学习得到反馈来改进机器学习,” Iandola解释说。在基于RN的NAS下,未经训练的RL获得建议,指定层数和参数来训练DNN架构。一旦对DNN进行训练,训练运行的结果将作为反馈,从而推动RL运行更多DNN来开展训练。KL4EETC-电子工程专辑

经证明,基于RL的NAS是有效的。谷歌MnasNet就是一个很好的例子,它在ImageNet延迟和准确性方面都优于ShuffleNet。但它也有一个关键的弱点: 成本太高。基于RL的搜索通常需要数千个GPU天数(GPU day),以训练数百乃至数千个不同的DNN,才能生成理想的设计。“谷歌负担得起,” Iandola表示,但大多数其它公司负担不起。KL4EETC-电子工程专辑

现实地说,一个基于RL的NAS要训练一千个DNN,每个DNN通常需要一个GPU天数。考虑到目前亚马逊云服务平台的价格,Iandola估计,一个使用基于RL的NAS搜索所花费的云计算时间可能耗资高达7万美元。KL4EETC-电子工程专辑

超级网络

在这种情况下,去年年底出现了一种新的NAS类型,称为基于“超级网络”的搜索。它的典型代表包括FBNet (Facebook伯克利网络)和SqueezNet。KL4EETC-电子工程专辑

20191011-102.jpgKL4EETC-电子工程专辑
图3KL4EETC-电子工程专辑

Iandola解释说:“超级网络采用一步到位的方法,而不是培训1000个独立的DNN。”KL4EETC-电子工程专辑

例如,一个DNN有20个模块,每个模块有13个选项。若为每个模块选择一个最喜欢的选项,“你正在以10个DNN训练运行花费为代价,一次性训练一个汇集了千万亿种DNN设计的DNN,”Iandola解释说。KL4EETC-电子工程专辑

结果表明,基于超级网络的NAS可以在10个GPU日的搜索时间内建立DNN,其延迟和准确性优于MnasNet。 “这让搜索成本从70,000多美元减少到大约700美元亚马逊云服务GPU时间,”Iandola说道。KL4EETC-电子工程专辑

“10个GPU天数”的搜索时间相当于在一台如衣柜般大小的8 GPU机器上花费一天的时间,” Iandola解释说。KL4EETC-电子工程专辑

20191011-103.jpgKL4EETC-电子工程专辑
图4KL4EETC-电子工程专辑

过时的假设

机器学习的简短历史向我们展示神经结构搜索的出现如何为计算机视觉研究奠定了基础。但是在这个过程中,它也反驳了研究团体早期的一些假设,Iandola指出。KL4EETC-电子工程专辑

那么,哪些假设需要纠正呢?KL4EETC-电子工程专辑

Iandola称,大多数AI系统设计者认为,ImageNet分类中最精确的神经网络可以为目标任务提供最精确的骨干网络。但计算机视觉包括许多AI任务——从目标检测、分割和3D空间到目标跟踪、距离估计和自由空间等。“并非所有任务都是平等的,” Iandola强调。KL4EETC-电子工程专辑

ImageNet的准确性与目标任务的准确性没有太紧密的关联。“这没法保证,”他说。KL4EETC-电子工程专辑

看看由Iandola团队创建的SqueezeNet。Iandola解释道,这是一个小型的神经网络,它的ImageNet分类精度明显低于VGG,但在“用于识别一组图像中相似斑块的任务”时,它比VGG更准确。KL4EETC-电子工程专辑

随着分类任务达到极限,Iandola坚信是时候为不同的任务设计不同的神经网络了。KL4EETC-电子工程专辑

另一个普遍的假设是“在目标计算平台上减少乘积累加运算(MAC)将产生更低的延迟。”KL4EETC-电子工程专辑

然而,最近的研究表明,减少MAC与减少延迟并无太大关联。“拥有较少MAC的神经网络并不总是能够实现较低的延迟,”Iandola指出。KL4EETC-电子工程专辑

在Iandola的SqueezeNAS论文中,他坚持认为,不仅仅是不同的AI任务需要不同的DNN。为目标计算平台(如CPU、GPU或TPU的特定版本)选择合适的DNN也非常重要。KL4EETC-电子工程专辑

例如,他引用了为不同智能手机优化网络的FBNet作者的话。他们发现DNN在iPhonex上运行得很快,但在三星Galaxy S8上运行得很慢。在论文中,Iandola的团队总结道,“即使MACs的数量保持不变,不同的卷积维数也会根据处理器和内核实现决定运行得更快或更慢。”KL4EETC-电子工程专辑

对自动驾驶的影响

今天,DeepScale已经与多家汽车供应商建立了合作关系,包括Visteon、Hella Aglaia Mobile Vision GmbH和其它未透露名称的公司。DeepScale一直在开发微型DNN。该公司声称,他们在保证最先进的性能的同时,它们需要的计算量更少。KL4EETC-电子工程专辑

在SqueezNas的论文中,Iandola和他的同事解释道,其团队使用基于超级网络的NAS来设计一个用于语义分割的DNN,用于识别道路、车道、汽车和其它物体的精确形状等具体任务。“我们对NAS系统进行配置,以优化 Cityscapes语义分割数据集的高精度,同时在小型汽车级计算平台上实现低延迟。”KL4EETC-电子工程专辑

随着SqueezNAS的发展,DeepScale对自己的定位是:在优化DNN、AI硬件和特定AI任务之间的协同关系方面成为先行者。KL4EETC-电子工程专辑

随着AI芯片即将席卷市场,Iandola认为系统设计师必须明智地选择加速器。他们应该确切地考虑硬件应该执行哪种AI任务,以及硬件加速器应该在哪种神经网络上运行。KL4EETC-电子工程专辑

安全摄像头、自动驾驶汽车和智能手机都将使用AI芯片。考虑到每个系统所需的速度、准确性、延迟和应用程序大不相同,确定合适的硬件和NAS就变得至关重要。KL4EETC-电子工程专辑

Iandola表示:,对于OEM车厂来说,要把一个测试版AV变成一个商业产品,必须把目前存储在AV车后箱中的刀片服务器抽取出来。Iandola预测,汽车制造商可能会要求硬件芯片公司提供适合硬件平台的优化DNN。KL4EETC-电子工程专辑

对于英伟达这样的公司来说,这可能不成问题,因为它的GPU得到了一个大型软件生态系统的支持。然而,大多数其他AI硬件供应商将会出一身冷汗。KL4EETC-电子工程专辑

此外,随着一系列新的传感器——摄像头、激光雷达和雷达—被设计成AVs,汽车原始设备制造商将面临一些残酷的现实。例如,每个传感器可能使用不同类型的神经网络。另一个例子是,不同品牌设计的激光雷达使用不同的AI硬件。Iandola指出,“今天,无论是传感器供应商还是AI处理器公司都没有提供针对其硬件进行优化推荐的神经网络。”KL4EETC-电子工程专辑
Iandola表示,OEM车厂和一级零部件供应商将开始要求优化DNN,以匹配特定硬件和AI任务, 这将无法避免。“我们相信,使用NAS优化目标计算平台上的低延迟变得越来越重要。”KL4EETC-电子工程专辑

随着基于超级网络的NAS的出现,NAS的成本已经在下降。因此,现在可能是时候让硬件供应商开始寻找自己的优化DNN。当被问及DeepScale是否计划通过合作、授权或为AI硬件公司开发优化DNN来填补这一缺口时,Iandola说道,“我们还没有真正考虑过这个问题。”KL4EETC-电子工程专辑

本文同步刊登于电子工程专辑杂志2019年10月刊KL4EETC-电子工程专辑

责编:Yvonne GengKL4EETC-电子工程专辑

电子工程专辑 EE Times China -提供有关电子工程及电子设计的最新资讯和科技趋势
本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
Junko Yoshida
ASPENCORE全球联席总编辑,首席国际特派记者。曾任把口记者(beat reporter)和EE Times主编的Junko Yoshida现在把更多时间用来报道全球电子行业,尤其关注中国。 她的关注重点一直是新兴技术和商业模式,新一代消费电子产品往往诞生于此。 她现在正在增加对中国半导体制造商的报道,撰写关于晶圆厂和无晶圆厂制造商的规划。 此外,她还为EE Times的Designlines栏目提供汽车、物联网和无线/网络服务相关内容。 自1990年以来,她一直在为EE Times提供内容。
您可能感兴趣的文章
  • 地平线张永谦:AI在边缘侧落地背后的思考 “边缘侧智能设备大规模爆发的趋势,使数据成为如今AI芯片领域最大的挑战。”2019年11月7日,在由ASPENCORE《电子工程专辑》、《国际电子商情》和《电子技术设计》主办的“2019全球双峰会”上,地平线副总裁&AIOT芯片方案产品线总经理张永谦以“边缘AI芯片赋能行业,共建普惠AI时代”为题,介绍了地平线机器人在边缘AI芯片以及解决方案,以及地平线对AI在边缘侧落地背后的思考。
  • 从e-AI和SOTB两大技术看,如何通过技术创新实现业务模式 目前在各种领域当中都有AI的应用方案,但很多方案AI应用都取决于云端的计算能力。嵌入式系统对实时性的要求,会因为延时而出现滞后问题。在这样的环境下,嵌入式人工智能就能大显身手。
  • 比摩尔定律快得多:为什么要将AI算力扩展至ExaFLOPs百亿 当通用计算逐渐在性能、能效比提升逐年放缓的情况下,摩尔定律放缓、登纳德缩放定律失效,被人们每每提及的“架构革新”成为一种必然。Graphcore的IPU可算是当代“架构革命”的先驱之一。Graphcore的架构革命究竟能带来什么?
  • 大脑植入设备后,四肢瘫痪的病人能走了 法国研究人员开发了一种能藉由纪录与译码大脑信号来控制病患四肢外骨骼的植入式设备,能实时记录人脑的活动并将这些生理脉冲用来驱动外骨骼...
  • 轻量级AI可望“跨镜追踪”抓嫌犯 英国萨里大学(University of Surrey)开发一种新的轻量级人工智能(AI)技术,可重新辨识并匹配影片中的行人,并足以为边缘装置实现跨镜追踪(ReID)…
  • 三星裁撤CPU研发部门,放弃自研手机SoC 随着本周Exynos 990的发布,三星自研的高性能CPU核心已经推进到了第五代,但是据外媒Wccftech报道,三星将于 12 月 31 日正式裁撤位于得克萨斯州首府奥斯汀的 CPU 研发部门,并解聘其 290 名员工。
相关推荐
    广告
    近期热点
    广告
    广告
    广告
    可能感兴趣的话题
    广告