向右滑动:上一篇 向左滑动:下一篇 我知道了
广告

神经网络推理引擎VIP8000运算速度超过每瓦10万亿次运行/秒

时间:2018-02-28 阅读:
芯原借助其具备突破性神经网络压缩技术、运算速度能在0.5到72万亿次运行/秒之间进行调节的VIP8000神经网络处理器,强化其在深度神经网络处理方面的领先地位。

显著特点:fjaEETC-电子工程专辑

物联网终端设备到服务器ASIC都可扩展,运算速度从0.5到72万亿次运行/秒(TeraOPS) fjaEETC-电子工程专辑

在14nm工艺技术下运算速度可超过每瓦10万亿次运行/秒fjaEETC-电子工程专辑

完全可编程处理器支持OpenCL、OpenVX和广泛的神经网络框架(TensorFlow、Caffe、AndroidNN、ONNX、NNEF等)fjaEETC-电子工程专辑

原生支持i8、i16、FP16和FP32推理引擎加速,支持多种精度的各类神经网络拓扑结构fjaEETC-电子工程专辑

随着分级压缩(Hierarchical Compression)、软件平铺/缓存(Software Tiling/Caching)、裁剪(Pruning)、获取跳过(Fetch Skipping)以及层合并(Layer Merging)技术的引入,内存带宽需求急剧减少fjaEETC-电子工程专辑

2017年新增10家VIP8000 IP被许可方fjaEETC-电子工程专辑

芯原控股有限公司(VeriSilicon Holdings Co., Ltd.,简称“芯原”)日前宣布,其用途广泛且高度可扩展的神经网络推理引擎VIP8000系列已实现一系列重要的里程碑。 fjaEETC-电子工程专辑

Jon Peddie研究所所长Jon Peddie博士表示:“人工智能和机器学习技术的采用是自个人PC时代以来计算机产业发生的最重要的事件,它将真正地变革、助力并改善我们的生活。它可被应用于IBM和Google的巨型机,也可被应用于搭载芯原神经网络处理器的微小芯片上。到2020年,我们不禁会问,曾经的我们是如何在没有AI助手的环境下生活的。” fjaEETC-电子工程专辑

机器学习和神经网络处理是嵌入式处理器的下一个主要市场机会。国际数据公司(IDC)预测,人工智能和机器学习方面的支出将从2016年的80亿美元增长到2020年的470亿美元。随着最新一代神经网络推理引擎IP的发布,芯原已成为该领域发展的主要推力。业界领先的VIP8000处理器持续拓展其应用范围,已从不间断电池供电的物联网终端设备应用扩展到AI服务器集群应用。 fjaEETC-电子工程专辑

芯原VIP8000的最新升级主要针对神经网络模型推理加速,相比DSP、GPU和CPU混合处理器方案,更新后的VIP8000处理器在提高效率与推理速度的同时降低了内存带宽需求。完全可编程的VIP8000处理器达到了专用固定功能逻辑模块的性能和内存效率,并具有可定制性,且后续可在OpenCL、OpenVX和各种神经网络框架(TensorFlow、Caffe、AndroidNN、ONNX、NNEF等)上进行编程。VIP8000神经网络架构可以胜任广泛的人工智能工作负荷,同时优化了数据的内存管理。fjaEETC-电子工程专辑

芯原的神经网络推理引擎不仅性能优于所有传统的DSP、GPU和CPU混合系统,而且已作为成熟的IP核经由被授权方产品上市超过一年半时间。仅2017年便有10家主要的ASIC开发商经过对同类IP解决方案和SoC进行严格的基准测试后,选择了VIP。芯原的IP产品已成功地授权给广泛的终端客户,其应用涵盖先进辅助驾驶系统与无人驾驶汽车、安防监控、家庭娱乐、视觉图像处理以及服务器等。 fjaEETC-电子工程专辑

VIP8000神经网络处理器实现了业界最高的性能与能源效率,是市场上扩展性最强的平台。这款神经网络推理引擎最近在14nm工艺下,实现了超过10 TeraOPS每瓦的功率效率,且运算速度的范围为0.5到72 TeraOPS。相较于其他处理器架构,VIP8000引入新的分级压缩、软件平铺/缓存、裁剪、获取跳过和层合并(待审批专利)技术,进一步降低了内存带宽需求。 fjaEETC-电子工程专辑

芯原首席战略官、执行副总裁兼IP事业部总经理戴伟进(Weijin Dai)表示:“人工智能无处不在。VIP8000系列集成了正在申请专利的神经网络压缩技术,有效地提高了产品性能,从而加速了人工智能在嵌入式产品中的普及。我们正在与从嵌入式产品到服务器终端产品等各个领域的主要客户深入接触。面向各类需求挑战的应用和算法正在不断发展,我们将人工智能技术与芯原广泛的IP产品线相结合,为客户提供突破性的解决方案。人工智能将高效地创造价值。” fjaEETC-电子工程专辑

芯原支持广泛的神经网络架构(TensorFlow、Caffe、AndroidNN、亚马逊机器学习、ONNX、NNEF、AlexNet、VGG16、GoogLeNet、Yolo、Faster R-CNN、MobileNet、SqueezeNet、ResNet、RNN、LSTM等),同时还提供大量的软硬件解决方案,使开发人员能够创建高性能的神经网络模型以及基于机器学习的应用程序。fjaEETC-电子工程专辑

本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
您可能感兴趣的文章
  • 浙江大学牵头研发,类脑芯片“达尔文2”发布 日前,脉冲神经网络类脑芯片“达尔文2”以及针对该芯片的工具链、微操作系统在杭州发布。该芯片主要面向智慧物联网应用,单芯片支持的神经元规模达15万个,在神经元数目上相当于果蝇的神经元数目,是目前已知单芯片神经元规模居全国前列的脉冲神经网络类脑芯片。
  • 机器学习/AI热潮席卷Hot Chips 2019 Hot Chips一向是处理器产业尖端技术与最新发展趋势的风向球,今年也不例外。如果说Hot Chips 2019是否透露任何迹象,那就是这一场机器学习/ AI芯片革命正方兴未艾…
  • 初创公司用整块晶圆做出史上最大芯片 初创公司Cerebras将在Hot Chips上展出号称是“世界上最大”的半导体器件——一个16nm工艺、晶圆大小的处理器阵列,旨在取代英伟达(Nvidia) GPU在训练神经网络方面的主导地位。这颗面积达到46,225平方毫米的芯片功耗为15千瓦,封装了400,000个内核,并且仅支持在极少数系统中运行,至少已有一家客户采用……
  • 哪些机器人可以用于垃圾分类? 尽管上海垃圾分类已经开始“强制”执行,但很多居民仍然常常难以分辨自己的垃圾该归为哪类,在误投的情况下,还得依靠环卫工人手动把垃圾分好类。随着人工智能和物联网等技术的迭代升级,未来会不会有专门分辨、分拣和处理不同垃圾种类机器人融入我们的生活,让我们不再每天接受“你是什么垃圾”的灵魂拷问?
  • 有关麒麟810和华为nova 5,有些事华为没告诉你 “因为夜的黑,光才被衬托得更美。”这话其实是用来形容华为nova 5系列手机的拍照能力的,不过在现如今这个国际环境大背景下,倒似更有深意了,也更符合华为现在的处境。华为消费业务手机产品线总裁何刚在华为nova 5系列产品发布会上,说出这句话的时候,发布会所在地的武汉还在下着小雨。
  • 都在围观最新CPU/GPU,Arm中国这个动向你可曾关注? “孙正义曾说大约在2035年左右,全球可能会有1万亿个在线连接的AIoT设备。坦白的讲,这并不是一个很激进的数字。”Arm中国生态发展副总裁、OPEN AI LAB创始人兼CEO金勇斌日前在接受媒体采访时称,从1991年到2017年,Arm花了26年的时间才实现了1000亿片Arm架构芯片的出货。
相关推荐
    广告
    近期热点
    广告
    广告
    广告
    可能感兴趣的话题
    广告