广告

AI有需求,第二代HBM技术应运而生

时间:2018-01-18 作者:Gary Hilson 阅读:
HBM迄今仍属于利基型技术,是否能因为AI等新应用进一步扩大市场版图,分析师认为目前仍很难说…

高带宽内存(high bandwidth memory,HBM)因为上周三星电子(Samsung Electronics)宣布开始量产第二代HBM技术Aquabolt,在市场上再次获得瞩目。

三星高带宽内存市场营销经理Tien Shiah表示,其8GB容量的High Bandwidth Memory-2 (HBM2)是专为下一代超级计算机、人工智能(AI)与绘图系统所设计,号称能提供最高等级的DRAM性能水平,以及目前市场上最快的数据传输速率──在1.2V下每接脚2.4Gbps;与该公司上一代HBM2产品Flarebolt相较(每接脚速度在1.2V下为1.6Gbps、在1.35V下为2.0Gbps),性能提升了近50%。

Shiah在国际消费性电子展(CES 2018)接受EE Times电话采访时表示,单个Aquabolt封装能提供307GBps的数据带宽,数据传输速率是数据带宽为32GBps的8GB GDDR5芯片之9.6倍;这意味着在系统中采用4个HBM2封装就能达到1.2TBps的带宽,将整体系统性能提升50%。他指出,对更高资料访问速度的需求推动了市场采用HBM,特别是AI与机器学习算法;而HBM为市场上最高速的DRAM解决方案,还能节省占板面积与功耗。

不过Shiah也指出,因为HBM需要整合到具备硅中介层(silicon interposers)的ASIC中,这种设计需要具备专长技术;三星还利用了与散热控制相关的硅穿孔(TSV)技术优势,单一个Aquabolt封装内含8颗8Gb容量的HBM2裸晶,利用超过5,000个TSV垂直互连;此外三星还增加了HBM2裸晶之间的散热凸块(thermal bumps),能实现对每个封装更强力的散热控制。最后还在封装底部添加了保护层,提高其整体物理强度。
20180118-HBM-1
*三星的第二代High Bandwidth Memory-2 (HBM2)是专为下一代超级计算机、人工智能(AI)与绘图系统所设计
(来源:Samsung Electronics)*

HBM常常会被跟混合内存立方体(Hybrid Memory Cube,HMC;编按:由Micron主导开发)一起讨论,两者同样是为了发挥DRAM最高速度性能的解决方案;这两种方案的差异性其实不大,但因为HBM在市场上的接受度较高,有可能会胜过HMC,就像是很久以前录像带规格VHS侵蚀Beta版图那般。

不过市场研究机构Objective Analysis首席分析师Jim Handy表示,就算HBM会成为赢家,它仍是一种利基型技术,“我不认为它最终会跃居主流;目前它实在是很昂贵的技术,因为要在硅芯片上使用TSV的代价高昂;”他指出,HBM到目前为止感觉有点“神秘”,通常是使用在Nvidia与AMD的绘图卡,需要大带宽来连结GPU的应用。

Handy表示,TSV确实能提供比打线封装(wire bonding)更高的优势,特别是当你可以在单芯片上采用5,000个TSV;然而该技术仍相对较昂贵:“这种技术需要克服的挑战在于,当生产量增加、价格就会降低,但因为一开始的高价格很难让生产量变大,”这也是为甚么HBM仍主要只出现在高阶绘图卡上。

现在也可以看到HBM被应用在某些超级计算机,未来在某个时间点也有机会进驻标准服务器,但Handy补充指出:“现在很难说什么应用能让HBM达到足以让成本下降的高需求量,大家都在争论AI将在其中扮演何等角色;”厂商大力推广锁定AI应用的FPGA解决方案,为GPU方案带来竞争压力,智能型手机也可能会是HBM的长期性目标市场,因为GDDR5也准备进军这类设备。

至于HBM与HMC之间的主要差异,Handy表示是在底部的逻辑芯片;而虽然英特尔(Intel) 采用了美光(Micron)的HMC技术,但自行开发了逻辑标准。另一家DRAM制造商海力士(SK Hynix)也是走HBM路线,他认为英特尔将会从自家衍生的HMC方案转向采用HBM,最后美光也会跟进:“HBM与HMC差异并不大,所以美光如果必须改变方向也不会有太多损失。”

编译:Judith Cheng

本文授权编译自EE Times,版权所有,谢绝转载

EETC wechat barcode


关注最前沿的电子设计资讯,请关注“电子工程专辑微信公众号”。

本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
广告
相关新闻
广告
广告
广告
广告