向右滑动:上一篇 向左滑动:下一篇 我知道了
广告

Flex Logix 发布InferX™ X1 8TOPS高性能,低功耗,低成本AI边缘推理芯片

时间:2019-04-11 作者:Flex Logix 阅读:
2019年4月10日, Flex Logix Technologies, Inc. 宣布,其在拥有数个专利的业界领先的eFPGA互连技术上,结合专为AI推理运算而优化的nnMAXtm乘加器(MAC), 研发了 InferXtm X1边缘推理芯片。

2019年4月10日, Flex Logix Technologies, Inc.  宣布,其在拥有数个专利的业界领先的eFPGA互连技术上,结合专为AI推理运算而优化的nnMAXtm乘加器(MAC), 研发了 InferXtm X1边缘推理芯片。今天在美国硅谷举办的Linley Processor Conference,Flex Logix介绍了 InferX X1芯片及其性能。作为一款针对于边缘AI推理应用的芯片,InferX X1有着极高的 MAC 利用率以及出众的能效比 — 只需要一颗x32的DRAM, 就可以达到8TOPS的算力。这在边缘推理这种只需 low batch size 的应用场景中显得极为重要。与现有的解决方案相比,InferX X1能以更低的功耗,更低的成本,提供更高的算力。zG9EETC-电子工程专辑

zG9EETC-电子工程专辑
InferX X1可以支持语音,图像,视频等任何基于TensorFlow-Lite或ONNX的模型和算法,特别适用于大型的模型算法和实时识别。例如YOLOv3实时物体识别算法,InferX X1在batch=1的情况下,可以对1Megapixel图像 达到25.4帧每秒(fps)的吞吐量。对2Megapixel高清图像达到12.7帧每秒(fps)。而达到这样的高吞吐量只需要用到一个x32的DRAM。zG9EETC-电子工程专辑

InferX 支持INT8,INT16,BF16并可以在不同的算法层混合使用,方便客户根据自己的需求来优化吞吐量和算法精度。InferX还内置有Winograd变换来加速INT8计算卷积,芯片会自动对适用的矩阵乘法来实时转换weights到Winograd模式,得到将近2.25倍的性能提升。由于InferX的Winograd是用12bits来计算的,所以精度不会有损失。zG9EETC-电子工程专辑

Flex Logix提供客户完整的软件开发环境。客户可以直接将基于TensorFlow-Lite或ONNX的算法直接用Flex Logix的nnMAX Compiler软件来编译。zG9EETC-电子工程专辑

Flex Logix将提供InferX X1芯片。芯片可以通过扩展口来连接数个芯片以增加算力。Flex Logix同时还会提供搭载InferX X1的半高半长PCIe卡给Edge Server和gateway客户。zG9EETC-电子工程专辑

“设计边缘神经网络推理芯片的一个难题是如何降低大量的数据交换及降低功耗,而我们的可编程互连技术是接近完美的解决方案。”Flex Logix CEO Geoff Tate说。”在运算一层网络的时候,我们利用可编程互连将InferX的MAC根据这一层网络的dataflow来连接,等于是专为这一层运算配置了一个ASIC。同时对下一层网进行络pre-load,以实现在这一层运算完后可以最快速地配置下一层。同样的可编程互连也与片上的SRAM连接,将这一层的输出,快速配置成下一层的输入,从而避免了大量的数据交换。所以InferX只需要一颗x32 DRAM就够了。这让我们可以将芯片设计得更小,大大降低了功耗和成本。”zG9EETC-电子工程专辑

Geoff Tate还说, “我们还在芯片里加上了Winograd来加速INT8的运算,这让客户在选择INT8时能得到更高的吞吐量。而同时我们也支持BF16,让对精度更在意的客户在需要时也能运用。客户可以选择根据自己的需求在不同的网络层混合运用来到达高精度,高吞吐量。”zG9EETC-电子工程专辑

一个创新的可编程互连技术,两个高速成长的产品线

Flex Logix在其拥有十余个专利的创新可编程互连技术上研发了EFLX eFPGA IP. Flex Logix已经成为eFPGA IP市场的领先者,已有包括大唐辰芯,美国波音,SiFive RISC-V等十余个客户正在应用Flex Logix的eFPGA IP。zG9EETC-电子工程专辑

最新研发的nnMAX AI IP,即InferX芯片中使用的新推理架构,利用了同样的可编程互连技术,并结合了专为AI推理而设计的乘加器(MAC)和存储单元。这些乘加器能支持INT8, INT16, BF16等AI算法里常见的精度数字。每一颗nnMAX IP单元拥有1024个乘加器以及相应的SRAM,在16nm制程上可以提供2 TOPS的算力。nnmAX IP单元可以根据需求拼接成NxN的阵列,最大可以提供超过100 TOPS的算力。zG9EETC-电子工程专辑

Flex Logix在InferX X1芯片里集成了4个nnMAX IP单元,提供8 TOPS的算力。zG9EETC-电子工程专辑

时间表

InferX X1推理芯片计划于Q3 2019流片,样片和PCIe板可于年底提供。基于台积电16nm的nnMAX IP将于Q3 2019提供授权给客户用于集成到客户自己的ASIC或SoC. 感兴趣的客户可以访问 www.flex-logix.com 来获得我们在 Linley Processor Conference发布的胶片,或联系Flex Logix亚太区销售jim@flex-logix以获取更多信息。zG9EETC-电子工程专辑

本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
您可能感兴趣的文章
  • AI推理处理器已死? 人工智能(AI)芯片的市场现实是什么?根据业界专家认为,如今我们已经脱离AI炒作,开始前进到更能准确反映现实的阶段...
  • 市场上有那么多AI芯片,还需要Arm的NPU吗? AI和IoT是这两年被人反复提及的话题热点,毕竟它们给予行业的信心是贯彻了信息技术的整个垂直领域的。这两者能够造就机遇的重要原因,就在于它们尚未形成(或可能不会形成)非常统一的“生态”,迄今为止也没有哪位巨擘一手遮天构建起具有充分话语权的生态。以边缘AI为例,仅是手机设备上用于推理(inference)的神经网络单元,时下大概也都处在多家争鸣的状态……
  • 你的AI芯片有自己的DNN吗? 为了让AI加速器在最短延迟内达到最佳精准性,特别是在自动驾驶汽车(AV)中,TFLOP(万亿次浮点运算)已经成为许多所谓大脑芯片的关键指标。然而,有专家认为这种野蛮处理方式并不可持续。在EE Times的一次独家专访中,DeepScale的首席执行官Forrest Iandola给出了其不可持续的理由,是因为AI硬件设计师所持有的许多常见的假设已经过时。
  • 8周!中国初创公司首颗自研AI芯片变成量产机 随着摩尔定律的几近失效,人们又找到一项新规律——人工智能的算力每隔约3.5个月就会翻翻。其实人工智能的爆发,也得益于集成电路技术突飞猛进,其源头和瓶颈都是芯片算力。正因如此,全球范围内的AI芯片初创公司的融资势头强劲,中国有一家AI芯片初创企业,从他们第一颗芯片回来,到第一种机型量产,仅用了不到8周时间,这种“中国速度”是怎么做到的?……
  • 浙江大学牵头研发,类脑芯片“达尔文2”发布 日前,脉冲神经网络类脑芯片“达尔文2”以及针对该芯片的工具链、微操作系统在杭州发布。该芯片主要面向智慧物联网应用,单芯片支持的神经元规模达15万个,在神经元数目上相当于果蝇的神经元数目,是目前已知单芯片神经元规模居全国前列的脉冲神经网络类脑芯片。
  • 紫光连发两芯,官宣重庆DRAM厂、西安AI实验室及研究所 8月27日这一天,紫光集团动作频频。首先是紫光展锐宣布推出虎贲T618和T710两款手机芯片,随后在西安宣布成立丝路研究所以及和西交大共建AI实验室,同一天紫光集团还在重庆宣布将把DRAM总部落户于此,两年内建成12寸DRAM厂……
相关推荐
    广告
    近期热点
    广告
    广告
    广告
    可能感兴趣的话题
    广告