当前位置: 首页 > news >正文

三星与海力士发力决战HBM4

在8月中旬,三星宣布正在加速推进下一代HBM(High Bandwidth Memory)的研发,目标是在今年年底前完成HBM4的设计定稿(tape-out)。而SK海力士则继续保持其竞争力,计划在10月份完成HBM4的设计定稿,这一产品将被用来支持NVIDIA的Rubin AI芯片系列,此消息由Wccftech和ZDNet报道。

除了为NVIDIA提供HBM4之外,SK海力士还计划在未来几个月内为AMD的AI芯片进行HBM4的设计定稿。为了应对来自AI芯片巨头即将发布的新产品所带来的强劲需求,SK海力士正组建开发团队,以确保能够及时向NVIDIA和AMD供应HBM4。

根据SK海力士的产品路线图,该公司计划在2025年下半年推出12层堆叠的HBM4,并在2026年推出16层堆叠的版本。鉴于NVIDIA的Rubin系列芯片预计将在2026年问世,因此预计将采用HBM4 12Hi,每个GPU包含8个集群。

目前,SK海力士是NVIDIA AI芯片的主要HBM3e供应商。几个月前,SK海力士已经开始出货HBM3e产品,随后Micron也加入了这一行列。相比之下,三星的HBM3已经通过了NVIDIA的认证,但其HBM3e仍在努力通过NVIDIA的资格审查。

HBM4的引入对于SK海力士来说是一个重要的里程碑,因为它提供了最快的DRAM技术,具备卓越的能效和更高的带宽。HBM4将通道宽度加倍至2048位,而HBM3E仅为1024位。此外,它支持最多16层DRAM堆叠,高于HBM3e的12层,并提供24Gb和32Gb层的选择。这种进步将使每堆栈容量达到64GB,而HBM3e为32GB。


http://www.mrgr.cn/news/15968.html

相关文章:

  • 前端速通面经八股系列(六)—— Vue(下)
  • Cracking the Safe
  • [Algorithm][综合训练][合并k个已排序的链表][dd爱旋转][小红取数]详细讲解
  • AI自动采集教学行为——用AI来做机器学习部分和深度学习部分(含torch和cuda)包含机器学习模型和bert模型的使用
  • 计算机学习
  • python用波形显示udp数据实现一个模拟示波器
  • 事务的 ACID特性及如何保证的
  • SCI二区|吸血水蛭优化算法(BSLO)原理及实现【免费获取Matlab代码】
  • MFC工控项目实例之九选择下拉菜单主界面文本框显示菜单名
  • python办公自动化:使用`Python-PPTX`创建和操作表格
  • 【网络安全】打开这份“开学礼” 谨防骗子“冲业绩”
  • Docker私有镜像仓库Harbor安装并推拉镜像
  • 文本数据分析-(TF-IDF)(1)
  • 大语言模型算力优化策略:基于并行化技术的算力共享平台研究
  • 黑龙江等保测评流程
  • 内存泄漏是什么?发生在什么场景?如何解决?
  • 浏览器的高级搜索
  • 建模杂谈系列249 增量数据的正态分布拟合
  • 如何用GPT进行编程辅助?
  • 第十二章节 xxjob, seata, zk, minio,activeMQ进行 helm化