【硬件资讯】三大内存厂商逐步推动HBM进步!海力士与台积电结盟三星与美光不断推进HBM单片容量!

日期: 2024-03-08 12:18:32 作者: 业界资讯

  HBM产品被认为是人工智能(AI)计算的支柱之一,近两年行业发展迅速。在AI和高性能计算(HPC)的影响下,推动着存储器厂商的收入增长。作为英伟达高带宽存储器合作伙伴,SK海力士目前在HBM市场的处于领导地位。此前有 报道 称,SK海力士将在2026年大规模生产HBM4,用于下一代人工智能芯片。

  据Pulse News Korea 报道 ,最近SK海力士制定了“One Team”战略联盟,正在逐渐成型,这中间还包括台积电(TSMC)的参与,双方将合作开发HBM4芯片。据了解,台积电将负责部分生产流程,非常有可能负责封装和测试部分,以提升产品的兼容性。

  HBM类产品前后经过了HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)、HBM3E(第五代)的开发,其中目前最为先进的HBM3E是HBM3的扩展(Extended)版本,而HBM4将是第六代产品。HBM4堆栈将改变自2015年以来1024位接口的设计,采用2048位接口,而位宽翻倍也是是HBM内存技术推出后最大的变化。由于2048位接口需要在集成电路上进行很复杂的布线,在大多数情况下要台积电更为先进的封装技术来验证HBM4芯片。

  有消息称,HBM4芯片将用于Blackwell架构GPU第二次迭代升级中。

  虽然我们在昨天的资讯里,聊到了海力士在HBM内存领域的优势,但目前的AI芯片领域就像是逆水行舟,不就则退。海力士并没有因优势就放慢脚步,反而是穷极一切机会去寻求进步!目前有消息称,海力士制定了“One Team”战略联盟,其中就拉拢了台积电,一同研究下一代HBM4内存,这有利于海力士继续提升市场定位。目前的海力士已经算是乘着AI浪潮最成功的厂商之一,不知道未来还将创造多大的成就!

  美光 宣布 ,已开始批量生产HBM3E,将用于英伟达H200,该GPU计划在2024年第二季度开始发货。美光表示,这一里程碑让其处于业界的最前沿,以行业领先的HBM3E性能和能效为AI(AI)解决方案提供支持。

  早在去年7月,美光就 宣布 推出业界首款带宽超过1.2TB/s、引脚速度超过9.2GB/s、8层垂直堆叠的24GB容量HBM3E,采用了其1β(1-beta)工艺制造,性能相比目前出货的HBM3解决方案提高了50%。据介绍,美光HBM3E产品的每瓦性能是前几代产品的2.5倍,为AI数据中心的性能、容量和功率效率等关键指标创造了新的记录,能够大大减少GPT-4等大型语言模型的训练时间,并提供了卓越的总拥有成本(TCO)。美光称,其HBM3E的功耗比竞争对手SK海力士和三星的同种类型的产品低了30%。

  美光还准备了12层垂直堆叠的36GB容量HBM3E,在给定的堆栈高度下,提供的容量增加了50%,随技术的进步,美光将硅通孔(TSV)增加了一倍,金属密度增加了五倍,以此来降低了热阻抗,加上节能的数据路径设计,因此让能效得以提高。

  下个月英伟达的GTC 2024上,美光将会带来36GB容量HBM3E,并分析更多的产品信息。

  而HBM内存这么大的蛋糕,其他内存厂商自然也是觊觎的。美光这边,已经在其他方向上寻求突破了。AI专业卡对显存容量提出了更高的需求,美光的探究方向就在于堆高HBM内存的单片容量。此前已经展示过的24GB的HBM3E即将步入量产,并由此,拿下了NVIDIA的订单,这算是一个很不错的消息了。另外,美光的12层垂直堆叠的36GB容量HBM3E也已经准备好了,预计会在不久后登场展示,真的是进步神速啊……

  去年10月,三星举办了“Samsung Memory Tech Day 2023”活动,展示了一系列引领超大规模人工智能(AI)时代的创新技术和产品,并 宣布 推出名为“Shinebolt”的新一代HBM3E DRAM,面向下一代AI应用,提高总拥有成本(TCO),并加快数据中心的人工智能模型训练和推理速度。

  今天三星 宣布 已开发出业界首款HBM3E 12H DRAM,拥有12层堆叠。其提供了高达1280GB/s的带宽,加上36GB容量,均比起之前的8层堆栈产品提高了50%,是迄今为止带宽和容量最高的HBM产品。

  HBM3E 12H DRAM采用了先进的热压非导电薄膜(TC NCF)技术,使得12层产品与8层产品有着相同的高度规格,满足了当前HBM封装的要求。这项技术预计会带来更多优势,特别是在更高的堆叠上,业界正在努力减轻芯片裸片变薄带来的裸片翘曲。三星不断降低其NCF材料的厚度,并实现了业界最小的芯片间隙(7µm),同时还消除了层间空隙。这些努力使其与HBM3 8H DRAM相比,垂直密度提高了20%以上。

  三星的热压非导电薄膜技术还通过芯片间使用不相同尺寸的凸块改善HBM的热性能,在芯片键合过程中,较小凸块用于信号传输区域,而较大凸块则放置在需要散热的区域,这种方法有助于提升产品的良品率。

  三星表示,在AI应用中,采用HBM3E 12H DRAM预计比HBM3E 8H DRAM的训练平均速度提高34%,同时推理服务用户数量也可增加超过11.5倍。据了解,三星慢慢的开始向客户提高HBM3E 12H DRAM样品,预计今年下半年开始大规模量产。

  不过在36GB容量HBM3E这样的领域,似乎有另一个厂商捷足先登了。但值得一提的是,三星的HBM3E是目前唯一一家没拿到NVIDIA的订单的厂商,虽然技术够先进,但市场似乎不怎么认可。从三星、美光两家接连发布同一技术来看,HBM3E的技术推进并没什么瓶颈,各家的进度是基本一致的,剩下的就是看市场选择了。

  文章转载自网络(链接如上)。文章出现的任何图片,标志均属于其合法持有人;本文仅作传递信息之用。如有侵权可在本文内留言。

  特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

  天王山之战!下轮英超利物浦主场迎战曼城,英超前二直接对线月用10万吨水,花费22万水费,调查发现不简单

  令人震惊!加拿大遭遇“逾30年来最严峻时刻”,各项排名飞速下滑 发生了什么?

  网购1680元龙虾,因写错手机号被大妈取走吃光,女子找对方赔偿,被拒:“不能强制消费!”