向右滑动:上一篇 向左滑动:下一篇 我知道了
广告

神经网络推理引擎VIP8000运算速度超过每瓦10万亿次运行/秒

时间:2018-02-28 阅读:
芯原借助其具备突破性神经网络压缩技术、运算速度能在0.5到72万亿次运行/秒之间进行调节的VIP8000神经网络处理器,强化其在深度神经网络处理方面的领先地位。
ASPENCORE

显著特点:YSLEETC-电子工程专辑

从物联网终端设备到服务器ASIC都可扩展,运算速度从0.5到72万亿次运行/秒(TeraOPS) YSLEETC-电子工程专辑

在14nm工艺技术下运算速度可超过每瓦10万亿次运行/秒YSLEETC-电子工程专辑

完全可编程处理器支持OpenCL、OpenVX和广泛的神经网络框架(TensorFlow、Caffe、AndroidNN、ONNX、NNEF等)YSLEETC-电子工程专辑

原生支持i8、i16、FP16和FP32推理引擎加速,支持多种精度的各类神经网络拓扑结构YSLEETC-电子工程专辑

随着分级压缩(Hierarchical Compression)、软件平铺/缓存(Software Tiling/Caching)、裁剪(Pruning)、获取跳过(Fetch Skipping)以及层合并(Layer Merging)技术的引入,内存带宽需求急剧减少YSLEETC-电子工程专辑

2017年新增10家VIP8000 IP被许可方YSLEETC-电子工程专辑

芯原控股有限公司(VeriSilicon Holdings Co., Ltd.,简称“芯原”)日前宣布,其用途广泛且高度可扩展的神经网络推理引擎VIP8000系列已实现一系列重要的里程碑。 YSLEETC-电子工程专辑

Jon Peddie研究所所长Jon Peddie博士表示:“人工智能和机器学习技术的采用是自个人PC时代以来计算机产业发生的最重要的事件,它将真正地变革、助力并改善我们的生活。它可被应用于IBM和Google的巨型机,也可被应用于搭载芯原神经网络处理器的微小芯片上。到2020年,我们不禁会问,曾经的我们是如何在没有AI助手的环境下生活的。” YSLEETC-电子工程专辑

机器学习和神经网络处理是嵌入式处理器的下一个主要市场机会。国际数据公司(IDC)预测,人工智能和机器学习方面的支出将从2016年的80亿美元增长到2020年的470亿美元。随着最新一代神经网络推理引擎IP的发布,芯原已成为该领域发展的主要推力。业界领先的VIP8000处理器持续拓展其应用范围,已从不间断电池供电的物联网终端设备应用扩展到AI服务器集群应用。 YSLEETC-电子工程专辑

芯原VIP8000的最新升级主要针对神经网络模型推理加速,相比DSP、GPU和CPU混合处理器方案,更新后的VIP8000处理器在提高效率与推理速度的同时降低了内存带宽需求。完全可编程的VIP8000处理器达到了专用固定功能逻辑模块的性能和内存效率,并具有可定制性,且后续可在OpenCL、OpenVX和各种神经网络框架(TensorFlow、Caffe、AndroidNN、ONNX、NNEF等)上进行编程。VIP8000神经网络架构可以胜任广泛的人工智能工作负荷,同时优化了数据的内存管理。YSLEETC-电子工程专辑

芯原的神经网络推理引擎不仅性能优于所有传统的DSP、GPU和CPU混合系统,而且已作为成熟的IP核经由被授权方产品上市超过一年半时间。仅2017年便有10家主要的ASIC开发商经过对同类IP解决方案和SoC进行严格的基准测试后,选择了VIP。芯原的IP产品已成功地授权给广泛的终端客户,其应用涵盖先进辅助驾驶系统与无人驾驶汽车、安防监控、家庭娱乐、视觉图像处理以及服务器等。 YSLEETC-电子工程专辑

VIP8000神经网络处理器实现了业界最高的性能与能源效率,是市场上扩展性最强的平台。这款神经网络推理引擎最近在14nm工艺下,实现了超过10 TeraOPS每瓦的功率效率,且运算速度的范围为0.5到72 TeraOPS。相较于其他处理器架构,VIP8000引入新的分级压缩、软件平铺/缓存、裁剪、获取跳过和层合并(待审批专利)技术,进一步降低了内存带宽需求。 YSLEETC-电子工程专辑

芯原首席战略官、执行副总裁兼IP事业部总经理戴伟进(Weijin Dai)表示:“人工智能无处不在。VIP8000系列集成了正在申请专利的神经网络压缩技术,有效地提高了产品性能,从而加速了人工智能在嵌入式产品中的普及。我们正在与从嵌入式产品到服务器终端产品等各个领域的主要客户深入接触。面向各类需求挑战的应用和算法正在不断发展,我们将人工智能技术与芯原广泛的IP产品线相结合,为客户提供突破性的解决方案。人工智能将高效地创造价值。” YSLEETC-电子工程专辑

芯原支持广泛的神经网络架构(TensorFlow、Caffe、AndroidNN、亚马逊机器学习、ONNX、NNEF、AlexNet、VGG16、GoogLeNet、Yolo、Faster R-CNN、MobileNet、SqueezeNet、ResNet、RNN、LSTM等),同时还提供大量的软硬件解决方案,使开发人员能够创建高性能的神经网络模型以及基于机器学习的应用程序。YSLEETC-电子工程专辑

ASPENCORE
本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
您可能感兴趣的文章
  • 英特尔叫停Nervana AI芯片,改推Habana 英特尔(Intel)公司在去年12月中旬收购了以色列AI芯片初创公司Habana Labs,一出手就是20亿美元。不过问题是,在收购Habana之前,Intel手里的AI解决方案已经有CPU、FPGA、Nervana及在研的GPU等,不能同时有两个“太子”吧?必须做出一个艰难的决定……
  • 使用多个推理芯片进行设计的优势与挑战 过去两年是推理芯片行业最繁忙的两年。甚至有段时间,每隔一周都会有新公司推出新的优化方案。尽管这些创新都是伟大的,但问题在于大多数公司都不知道如何使用各种解决方案,因为他们无法确定哪个解决方案的性能优于另一个解决方案。
  • Optane之外——PCRAM还是潜力股吗? PCRAM被业界誉为值得关注的三大新型存储器之一,很大程度上是因为被Intel的Optane SSD 和DIMM采用。但是3D Xpoint之外的PCRAM又怎么样呢?
  • 重新构想Imagination:中资基金支持和新任CEO为IMG带来 2017年对Imagination来说是一个动荡和不堪回首的一年。其GPU IP的最大客户苹果终止合作,致使Imagination公司市值蒸发70%,而不得不变卖MIPS业务,并最终私有化,被一家有中资背景的美国私募基金收购。2018年12月,来自Rambus的Ron Black博士出任Imagination公司CEO。时隔一年,Imagination是否恢复了元气?在技术、产品和业务发展策略上发生了什么变化?
  • 边缘AI大战一触即发 一场边缘AI大战正悄悄展开...每一家处理器供货商都将机器学习视为“金鸡母”,积极地调整自家公司策略,竞相为这个具有最大商机的领域——边缘AI提供加速特定工作负载的解决方案...
  • 比摩尔定律快得多:为什么要将AI算力扩展至ExaFLOPs百亿 当通用计算逐渐在性能、能效比提升逐年放缓的情况下,摩尔定律放缓、登纳德缩放定律失效,被人们每每提及的“架构革新”成为一种必然。Graphcore的IPU可算是当代“架构革命”的先驱之一。Graphcore的架构革命究竟能带来什么?
相关推荐
    广告
    近期热点
    广告
    广告
    广告
    可能感兴趣的话题
    广告