广告

DinoplusAI与SiFive合作开发具有超低延迟高性能关键任务人工智能处理器平台

时间:2019-02-26 作者:SiFive 阅读:
• 针对数据中心,5G /边缘云和自动驾驶汽车应用,发挥极致效能
• 包括SiFive RISC-V E34管理核心和专有的DinoplusAI技术,芯片将由SiFive的SoC定制部门采用强大的ASIC开发及制造的方法学来得以实现
EETC https://www.eet-china.com

2019年2月25日,商用RISC-V处理器核心IP、设计平台和芯片解决方案的领导者SiFive宣布,人工智能处理器和高性能任务关键型应用软件的创新公司DinoplusAI (龙加智科技)将与SiFive合作开发具有超低延迟的高性能处理的关键任务人工智能处理器平台,针对超低延迟应用发挥极致效能,可应用在数据中心、5G /边缘云和自动驾驶汽车等产品中。 DinoplusAI处理器平台将SiFive RISC-V E34管理核心与DinoplusAI的专有人工智能技术相结合。 此外,SiFive的定制SoC部门将提供业界公认的强大的“从RTL到物理设计定制SoC”的实施方法,以确保首次工作芯片可以量产。wtrEETC-电子工程专辑

DinoplusAI处理器平台提供一致的超低延迟,从而减轻了高性能人工智能处理的常见限制。 DinoplusAI处理器具有可扩展的架构,软件堆栈和用户界面。 DinoplusAI处理器不仅可以满足人工智能应用所需的计算能力和能效,还可以满足人工智能产品和服务设计人员所需要的延迟、安全性和可靠性。 处理器平台在低批量生产时实现了行业一致且可预测的最低延迟,这在人工智能应用中至关重要。wtrEETC-电子工程专辑

“我们选择与SiFive合作,因为该公司在RISC-V核心领域处于领先地位,并且在ASIC设计和制造全面优化的SoC方面非常成功,”DinoplusAI首席执行官胡遇杰(Jay Hu)表示。 “这种专业知识与人工智能的IP模块相结合,将形成一个真正独特的解决方案,优化推理,重点关注性能、功效、超低延迟、确保安全性和可靠性。”wtrEETC-电子工程专辑

“具有卓越深度LSTM性能的DinoplusAI处理器可实现超过4000个实时音频流,其计算延迟小于1毫秒的Rokid声学模型,这是业界领先的云语音识别算法。”Rokid R-Lab主任饶轶博士(Yi Rao)表示。wtrEETC-电子工程专辑

“应对人工智能应用超低延迟的挑战需要一种成功的平台,包括需要新的硅IP,核心和先进的物理实现技术,”SiFive首席执行官Naveed Sherwani说。 “DinoplusAI处理器平台具有强大的IP功能,为下一代人工智能应用程序设计。 我们将这些人工智能 IP模块集成到以SiFive RISC-V E34管理内核为基础的16nm FinFET设计平台中,提供完整的芯片解决方案。wtrEETC-电子工程专辑

DinoplusAI简介

DinoplusAI设计和生产人工智能处理器和软件,应用在数据中心,5G边缘计算,自动驾驶和其他关键型任务。 该公司独特的方法可优化性能,功效和易用性,同时还可用于经济高效的培训。 DinoPlusAI成立于2017年,总部位于美国加利福尼亚州硅谷。 有关更多信息,请访问http://dinoplus.ai/wtrEETC-电子工程专辑

SiFive简介

SiFive是基于免费且开放的RISC-V指令集架构的商业化处理器核心IP、开发工具和芯片解决方案的领导者。 在RISC-V开创者和业内资深专家组成的团队领导下,SiFive帮助SoC设计人员缩短产品上市时间,以及通过定制的开放式架构处理器内核降低成本,同时,使系统设计人员能够构建基于RISC-V的定制半导体,从而实现芯片优化。SiFive美国位于加利福尼亚州硅谷,获得了Sutter Hill Ventures、Spark Capital、Osage University Partners(OUP)和成为资本(Chengwei Capital)的风险投资,和华米、SK电讯和Western Digital结成了战略合作伙伴。 有关更多信息,请访问www.sifive.comwtrEETC-电子工程专辑

 wtrEETC-电子工程专辑

 wtrEETC-电子工程专辑

 wtrEETC-电子工程专辑

EETC https://www.eet-china.com
本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
您可能感兴趣的文章
  • 深度学习的兴起,是通用计算的挽歌? 早期的计算机鲜有真正“通用”的设计,它们基本上都是为某一类算法特制的,我们不能简单将其说是像ASIC或FPGA。即便在真空管转向半导体以后,针对新功能进行硬件重新设计也是必须的。后来才有基于冯诺依曼体系的计算机架构,即可以存储指令,在软件中执行算法才成为可能。这是“专门硬件”向通用硬件的华丽转身。
  • Graphcore如何能成为西方半导体业唯一“独角兽”? 总部位于英国布里斯托的新创公司Graphcore,开发了一款被称为智能处理单元的新型AI加速器;Graphcore估计市值达17亿美元,被认为是西方半导体产业界唯一的“独角兽”,其投资者包括Dell、Bosch、BMW、Microsoft和Samsung等巨擘。
  • 机器也有偏见,AI算法仍须“留校察看” AI决策的公正与否,在很大程度上取决于人工智能训练算法所使用之测试数据集的准确性和完整性,而且取决于算法本身的准确性,以及如何做出“成功”的决定。训练算法的优化策略如果是为了实现整个群体的最大整体精度,实际上会放大偏见(bias)。
  • 何谓迄今最复杂的处理器芯片——IPU处理器? Graphcore公司日前推出了一款称为智能处理单元(IPU)的新型AI加速处理器。其首席执行官Nigel Toon在接受EETimes采访时介绍了其公司愿景、AI加速器市场以及AI的未来。
  • 别让AI变成人类眼中的混蛋! 要充分了解何谓 AI 的“不公正”,你需要想象自己是机器决策触发之坏消息的受害者。
  • 手机SoC运算规模将收缩?但娱乐体验却会更好? 现如今性能越来越强劲的手机SoC——包括CPU、GPU、NPU等,在不远的将来可能将在运算规模上发生缩减。尤其在5G普及以后,手机连接带宽大幅提升——或者说“5G将成为无线PCIe总线”,真正的运算任务交给云去完成,而本地只需要保留通讯功能,和视觉处理器,用于管理屏幕显示效果即可。
相关推荐
    广告
    近期热点
    广告
    广告
    广告
    可能感兴趣的话题
    广告