广告

没有海量数据和AI专业知识,怎样搞出高精度AI模型?

时间:2021-06-25 13:52:41 作者:黄烨锋 阅读:
今年CVPR期间,英伟达有两个相关AI比较重要的发布,或者说研究成果是尤为值得一提的,分别是Vid2Vid Cameo和TAO工具套件3.0——又有生词。本文主要谈谈后者,也顺便让更多的人理解,英伟达的迁移学习或者TAO工具套件是什么,以及在这个AI时代背景下,究竟有什么用。有关Vid2Vid Cameo的部分,将会在文末捎带提一提。
广告

在AI技术诞生以后,现在每年CVPR(Conference on Computer Vision and Pattern Recognition)大会,就很显然地在向AI倾斜。今年英伟达在CVPR上发了28篇paper,据说是英伟达参会史上的最多——不过这一点也不奇怪,毕竟英伟达现在的研究重心就是AI。

此前我们提到过,如果统计词频,黄仁勋在这两年的GTC主题演讲中提到最多的词应该就是“AI”和“XX学习”之类的,不像以前是以“渲染”“图形”之类的词为主。在如今这个AI蓬勃发展的时代,英伟达作为个中主力,给我们印象比较深刻的是这两年造了一大堆的生词,什么迁移学习、联邦学习,什么TensorRT、CUDA-X、TAO、Isaac、Clara之类的。甭管这些究竟是干嘛用的,除了看到这些词就让人有点头疼外,其实也从一个侧面表现出了AI技术本身的飞速发展。

今年CVPR期间,英伟达有两个相关AI比较重要的发布,或者说研究成果是尤为值得一提的,分别是Vid2Vid Cameo和TAO工具套件3.0——又有生词。本文主要谈谈后者,也顺便让更多的人理解,英伟达的迁移学习或者TAO工具套件是什么,以及在这个AI时代背景下,究竟有什么用。有关Vid2Vid Cameo的部分,将会在文末捎带提一提。

简单谈谈迁移学习

电子工程专辑比较早提到迁移学习,其实是在前年的GTC报道中;今年的GTC 2021上,黄仁勋还宣布了TAO框架的发布。我们先来理一理这其中的概念。

使用AI/ML/DL技术,需要找来一大堆数据集,并且基于这些数据训练(training)出一个神经网络模型,比如说用一大堆猫的图片,训练出一个能够识别猫的模型;在模型训练完以后,就可以拿来用了,也就是当输入一张动物图片,这个模型就能判断图片中的动物是不是猫,这个过程叫推理(或推断,inference)。

而training并不是那么简单的事情,也不是每个人、每家企业都有那么多数据可以随随便便从头做个模型出来(即便有不少开源资源存在)。所以英伟达搞了各种精度比较高的预训练模型(pre-trained model),就是基于英伟达本身的能力,准备好了很多可以被立刻拿来用的模型。作为“预训练”模型,开发者还可以基于这些模型,做属于自己的定制化训练——这个精调和优化(fine-tuning)的过程就会比自己凭借海量数据和专业知识搞个模型要简单很多。这个过程基本就可以认为是“迁移学习(transfer learning)”。

今年GTC上,英伟达高调宣布的TAO,在当时提到是“可针对英伟达AI预训练模型进行微调和适配”的东西。不过我们去看英伟达官网,发现英伟达对TAO的定义有更大的外延。TAO是个“平台”,通过基于UI的、引导式的工作流,简化AI应用的构建过程,针对不同能力水平的AI专家来满足不同的需求。其本质是简化机器学习过程里,比较耗费时间的部分,包括数据准备、训练、优化等。

所以TAO的一些核心组成,至少包括了预训练模型本身、TAO工具套件、联邦学习(从分布在不同位置的数据来做AI训练的过程),还有TensorRT、Fleet Command这样的组成部分。

迁移学习流程的大致流程是这样的

所以TAO工具套件其实是TAO的一个核心组成部分。这样一来,企业、机构可以在不需要太多数据、AI专家的情况下去搞AI,应用可能包括人、车、各种对象的识别、对话AI,还有后面会谈到的姿势识别、光学检查等。让我们稍细致一些的方式,来理解这个过程。

首先获得精确度比较高的预训练模型,然后用TAO工具套件,基于自己的数据集进行模型的优化——这个过程实际上是作符合个体使用场景的模型训练,针对的是个别的环境。之后这样的模型就能部署到应用中了;再往后,英伟达预期可以用DeepStream这样的视频流分析SDK工具,或者Jarvis这样的对话式AI,来做模型的部署。这里英伟达提供的算是一条龙服务。

实现迁移学习的工具,就是TAO工具套件。不管是训练视觉AI模型还是对话AI模型,其构成大致如上图所示:针对不同的模型提供Jupyter Notebooks(一种基于JSON的开放文档格式,据说英伟达基于Jupyter Notebook的框架不需要任何AI专业知识),加入自己的数据集;过程中可以做所谓的data preparation and augmentation;然后就是训练模型,并且进行剪枝(pruning)——也就是移除神经网络中的一些神经元,降低模型整体大小。

TAO工具套件下方是CUDA-X软件栈,前几天我们在谈Jetson Nano开发板的时候提到过这个概念,它是英伟达各种软件加速库的集合,包括CUDA、cuDNN、TensorRT等组件,也算是英伟达在AI生态中的核心资源了。再下层做迁移学习的硬件当然就是英伟达的各种GPU和平台产品了——training可以用DGX盒子,inference则小至Jetson Nano这样的小设备,也是英伟达赚钱的基础,或者说上层生态这么努力在做,也是硬件盈利的实现基础。

再细化一点流程,如上图所示。先从英伟达的NGC下载预训练模型,然后在TAO工具套件中加自己的数据,可以藉由英伟达的离线增强工具。训练数据之后,做评估看模型精度表现如何。在精度足够的情况下,再进行模型剪枝——基于剪枝阈值来修剪模型大小。

随后进行再训练(retrain)——这个过程可以用上QAT(Quantization Aware Training),一般比如做视频流内容分析的应用,AI训练过程用FP32这样的精度,对权重充分利用更宽的动态范围。不过模型部署到边缘端的硬件算力资源有限,INT8整形格式在很多场景下都有优势,参数、计算的低精度转换过程就是所谓的量子化Quantization。QAT就能够做这样的输出。

再训练以后可以对模型再做评估,最终输出模型、生成etlt文件和INT8 calibration cache(可以被后面的DeepStream SDK之类的读取,生成TensorRT引擎)。英伟达为了表明这个过程很简单,还特别在媒体分享会上实践演示了整个过程,尤其提到了TAO工具套件做剪枝却不损失精度的过程。

英伟达表示Facebook、谷歌之类的企业现在也都在用迁移学习技术。据说迁移学习过程对于完全新领域的适配,也有意想不到的效果。

有关预训练模型和某些应用方向

可能更多人会比较关心英伟达预训练模型本身的质量如何,那我们来谈谈英伟达的预训练模型——此前GTC大会的报道中我们也多次列举过英伟达的一些预训练模型。

上面这张图是英伟达给出的一些预训练视觉AI模型相关参数,柱状图就是对应的精度,下面的表格则是英伟达的各种平台下对模型做inference的性能表现(很多想试手的AI开发者可以关注下Jetson Nano的inference性能)。英伟达表示这些模型都经过了高度优化,可确保inference的时候以最快的速度、最低的内存占用来跑;而且这些模型还都是免费提供下载的。

英伟达特别对比了比较流行的YOLOv4,和自家的PeopleNet模型。在都不做专门训练的情况下,对应具体的场景——上图是人流量比较大的一个商场,YOLOv4在检测人头数的表现上就比较一般;而PeopleNet看起来精度就会高很多。据说PeopleNet这个模型本身是基于包含1700万人的140万张图片的训练,所以实现了out-of-the-box的80%精度。

之后是对话式AI的支持,也是这次TAO工具套件 3.0更新版本的一个重点:ASR(Automatic Speech Recognition)方面实现了对Jasper、QuartzNet、CitriNet的支持,也是英伟达作了大量数据训练的预训练模型;NLP(Natrual Language Processing)部分,则包括对上图中已列出的模型支持,最后一个Megatron QA应该也是本次更新的重要组成部分。

除此之外,英伟达还特别介绍了自家的一些模型做更具体的应用:比如说做人体姿势估测的BodyPoseNet模型——这个模型会检测人体18个点,据说比OpenPose有高出9倍的inference性能表现——这类模型可实现包括跌倒预测、体感游戏之类的应用。还有上图这个应用,对人脸做检测,并标注五官,以及可以实现对人眼注视方向的分析——这个应用对人脸68个点作了检测,整体包含了3个模型的应用——开发者可基于这些模型再做TAO工具套件的精调和定制化。

还有个特别值得一提的应用方向,就是自动化光学检查——这一点和制造(可能包括半导体制造)很相关,虽然我们尚不清楚其实际应用。基于UNET语义分割模型,实现生产过程中的缺陷检测。猜测这个应用或许对迁移学习本身提供的数据量会有更高的要求,据说从下载预训练模型,到最终部署的过程,是少于1天的。而且英伟达对此还特别提供了github repo来展示如何部署模型,如何基于开源数据集来做训练。

除了英伟达的预训练模型以外,TAO工具套件也支持各种开源的预训练模型,具体如上图所示。这张图对比的是TAO工具套件迁移训练后的精度,与现有公开数据集可实现最佳精度之间的对比,两者是很接近的状态——虽然不清楚这个对比具体是怎么做的;英伟达官方有特别发布基于开源模型架构实现高精度的开发者博客文章,有兴趣的可前往了解。

有关TAO工具套件 3.0的一些更新

一些已经出现在市场上的应用案例,比如Recycleye已经用TAO工具套件和后端的DeepStream SDK来做垃圾(waste)分类;还有Nota用类似的方案实现智慧交通,通过更好的调度来减少路面塞车时间。

在媒体分享会上,其实英伟达反倒没有怎么强调TAO工具套件 3.0的新特性,而是在科普TAO工具套件本身是怎么做的。这可能表现出现阶段英伟达仍然期望积极开拓市场,让更多的开发者加入到TAO工具套件的使用中来。除了前文提到的OpenPose、PeopleNet这些新模型,英伟达新闻稿中对TAO工具套件 3.0更新的总结大致如下:

● 各种行业用例中的计算机视觉预训练模型,如车牌检测和识别、心率监测、情绪识别、面部特征点等;

● CitriNet,一个使用各种专有特定域和开源数据集进行训练的新语音识别模型;

● 一个用于问题回答的新Megatron Uncased模型以及许多其他支持语音文本转换、命名实体识别、标点符号和文本分类的预训练模型;

● AWS、GCP和Azure上的训练支持;

● 在用于视觉AI的NVIDIA Triton和DeepStream SDK上以及用于对话式AI的Jarvis上的开箱即用部署。

另外在生态构建上,英伟达提到用TAO工具套件构建多样化的解决方案,与更多合作伙伴之间的合作。这次公开的合作对象包括了所谓的“data preparation and annotation partners”。这些参与者能够提供多样化的标签数据,促成AI训练的流程更快。开发者可以藉由这些合作伙伴的服务来生成和注释数据,然后搭配前文这么多篇幅介绍的英伟达迁移学习一条龙服务,从数据训练到最终的部署。

这个过程是感觉如往常的开发生态那样,许多生态构建方都喜欢讲的“让开发者专注于业务本身”,而将技术等繁琐的组成部分由上游来解决,应该是一样的道理。这个过程现在也逐渐来到了AI开发上。

最后捎带提一提Vid2Vid Cameo——这其实是伴随英伟达在CVPR上发的paper成果而来的深度学习模型。前不久的GTC 2021上,其实我们提到了Maxine SDK(又俩生词),而Vid2Vid Cameo其实就是Maxine背后的模型,其主要功能是通过现在相当知名的GAN(生成式对抗网络),仅用一张人物2D图像就合成人脸说话视频。

而英伟达这次在会上演示的是,将其用于视频会议的时候,只需要上传一张个人照片——比如穿正装的照片,那么Vid2Vid Cameo就会藉由这张照片,加上会议过程中捕捉人物动作、面部表情,将动作应用于上传的静态照片,形成动态视频。

这样一来,在家参与网络会议时,即便现实中穿睡衣也能在画面中看起来是穿着正装的。而且在网络质量不佳的时候,也不会有问题,所需网络带宽降低10倍(这项特性似乎单独作为Video Codec SDK特性之一推出了)。还有包括实时生成卡通头像、眼睛注释方向修正之类的特性,这些在去年的Maxine演示中,我们也看到过了。Vid2Vid Cameo可以认为是当前工作现状下,将AI应用于日常生活的一个缩影了。

责编:Luffy Liu

 

本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
黄烨锋
欧阳洋葱,编辑、上海记者,专注成像、移动与半导体,热爱理论技术研究。
  • DPU市场,一片混战 据IDC统计,全球算力的需求每3.5个月就会翻一倍,远远超过了当前算力的增长速度。在此驱动下,全球计算、存储和网络基础设施也在发生根本转变,一些在通用CPU上不能得到很好处理的复杂工作负载开始转向智能网卡(SmartNIC)和DPU,以此来减轻CPU内核的负担。
  • 人工智能全球规范化规则到底需要谁来执行呢?(图文) 人工智能全球化是近年来最火热的话题,不仅是科技界投入巨大,全社会各行各业都在绞尽脑汁的争夺这一还未开垦的处女地。 不仅如此,很多其他行业的人也都在为着人工智能发展做出
  • 购物乌托邦——零售2.0需要什么? 哪些技术在智能零售的实施中发挥了重要作用。当我走进最常逛的超市,不用翻找代币来租用购物车,因为购物车自动从超市入口处的无线充电通道来到我的身边。它报出我的姓名并表示热忱欢迎。 同时,它在带有简单图形的显示器上展露友善的笑颜。作为超市的常客,我拥有一张带姓名的会员卡,并在办卡过程中拍摄了会员照片......
  • 让电网智能化 全球电网都面临相似的挑战,其中最大的挑战是各种可再生能源的兴起。太阳能和风能虽然对环保有益,但它们和天气一样难以预测,鼓励消费者将太阳能电池板安装在屋顶上,或者用电动车储存能量,这些都表明电网正从单向变为双向......
  • “半导体老兵”芯片销量突破3亿颗,从国家电网进军通用M 中国工控和自动化市场规模持续扩大,预计到2022年将达到2085亿元。传统工控MCU领域向来是TI、ST、ADI和瑞萨等国际大厂的地盘,国内MCU厂商中除了华大半导体的MCU事业部,最近几年,万高、航顺和极海半导体、兆易创新也在发力工业MCU市场。
  • 利用传统存储器支撑日新月异的人工智能 人工智能带来的喧嚣正在消退,它已面临新的工程挑战,而存储器需求正在成为焦点:并非每个机器学习和推理任务都需要先进的存储器技术,而久经考验的传统存储器可以在边缘处理AI,而这类AI(分布式)可能正是5G所需。
  • 新款iPad Pro 2021成最受欢迎的 由于采用性能相对强大的M1处理器和mini-LED屏幕以及更多的创新,新款iPad Pro 2021已经成为消费者心目中最受欢迎。然而,iPad 2却已经在全球范围内被列入“复古和过时”的名单中。
  • 三星折叠屏手机Galaxy Z Fold 3 目前来看,折叠屏新机作为一种新的生产力工具,逐渐成为高端/平板的一种趋势,有报料称三星的Galaxy Z Fold 3发布时间或为7月,并且会引入新手势操控。

  • Qorvo® 推出首款单个模块即可支 Qorvo今日推出首款覆盖5.1GHz至7.1GHz频段的宽带前端模块 (FEM),不仅能最大限度地提高容量,而且还能简化设计,缩短产品上市时间,并将前端电路板空间减少50%,适用于Wi-Fi 6E企业级架构。
  • 5G 基础设施的驱动 根据全球移动通信系统协会 GSMA 提供的数据,5G 目前正在顺利推广中,预计将在 2025 年覆盖全球三分之一的人口。另外根据全球领先综合数据库Statista 的调查,主要手机制造商皆已推出 5G 手机,这将使那些希望以理论上高达 50Gb/s 的最大速度传输数据流和视频的人感到满意,预计到 2023 年全球 5G 订阅量将达到 13 亿 。
广告
热门推荐
广告
广告
广告
EE直播间
在线研讨会
广告
广告
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了