三星、SK海力士希望通过新AI芯片 助HBM快速增长

来源:钜亨网 #HBM#
1.6w

随着美国无晶圆厂芯片设计商英伟达 (Nvidia)(NVDA-US) 周一推出其新的人工智能芯片组 H200 Tensor Core GPU,三星电子和 SK 海力士公司等韩国存储器芯片制造商,对其高频宽存储器 (HBM) 销售的快速增长寄予厚望。

Nvidia 13 日表示,新的 AI 芯片组是第一个以每秒 4.8 TB 的速度,提供 141 GB HBM3e 存储器的图形处理单元 (GPU),与前身 H100 相比,容量几乎增加了一倍,频宽增加了 2.4 倍。

Nvidia 补充说,H200 的先进存储器可以处理产生人工智能和高效能运算工作负载的大量资料。H200 将于明年第二季从全球系统制造商和云端服务供应商上市。 该公司并未透露新 GPU 的价格范围。

H200 的推出,预计将加剧 Nvidia 与主要竞争对手 Advanced Micro Devices Inc. (AMD-US) 之间的竞争,AMD 于今年 6 月推出了 Instinct MI300X 加速器。

当时,AMD 声称 MI300X 提供的存储器密度是 Nvidia H100 的 2.4 倍,频宽是 Nvidia H100 的 1.6 倍以上。 Instinct MI300X 芯片预定于 12 月 6 日推出。

韩国双雄准备加速生产

韩国媒体报导,随着 AI 芯片竞争的加剧,全球最大的两家存储器芯片制造商三星和 SK 海力士正准备将 HBM 产量提高至 2.5 倍。

三星存储器芯片业务副总裁 Kim Jae-joon 在 10 月表示,三星电子也完成了与主要客户关于明年 HBM 供应的谈判。

据报导,三星正在向 AMD 提供 HBM3 和交钥匙封装服务。 据业内人士透露,这家全球顶级芯片制造商还在 8 月下旬通过了 Nvidia A100 和 H100 的 HBM3 品质验证,目前尚未正式确认是否向 Nvidia 供应 HBM3

仅次于三星的全球第二大存储器芯片制造商 SK 海力士则早于今年 8 月向 Nvidia 提供了 HBM3E 的样品,即 HBM3 的扩展版本。而 SK 海力士正向 AMD 供应 HBM3。

SK 海力士 DRAM 行销副总裁 Park Myoung-soo 也强调:“公司明年第四代 HBM3 产品和第五代 HBM3E 产品的供应量都在增加,并已完全售罄。现在更是与客户和合作伙伴就 2025 年 HBM 产量进行生产和供应的讨论也在进行中。”

美光也在瞄准 HBM 市场

除了韩国双雄以外,全球第三大 DRAM 公司美光也将从 2024 年开始积极瞄准 HBM 市场。 市场专家预测,三星电子、SK 海力士和美光之间争夺更大市场份额的竞争将会加剧。

据业内人士透露,美光在上季度的财报电话会议上表示,它已经开发出了业界最好的 HBM3E 产品,并将于 2024 年初开始生产,并创下有意义的销售。 HBM3E 是 HBM 的下一代版本,被认为是比目前市场领先产品 HBM2 和 HBM3 更高附加价值的产品。

美光正在向包括 Nvidia 在内的主要企业 HBM 客户发送 HBM3E 样品,让他们测试其性能。 Nvidia 一直在向 OpenAI、Google、微软等公司提供 AI 加速器,其中 HBM 封装在其图形处理单元 (GPU) 中。 人工智能加速器是用于推进生成式人工智能服务的服务器的关键元件。

目前,HBM 市场由三星电子和 SK 海力士占据主导地位。 市场研究公司 TrendForce 数据显示,三星和 SK 海力士预计将分别占据 HBM 46% 和 49% 的市场份额,美光将在 2023 年占据其余市场份额。

在这种情况下,美光 (MU-US) 明年愿意瞄准下一代 HBM 市场,预计将对三星电子和 SK 海力士产生负面影响。 这是因为美光的 HBM 供应可能会缓解 HBM 短缺问题,并加剧 HBM 制造商之间的价格竞争。 鉴于美光是美国公司,分析师表示,英伟达和 AMD 等大公司可能会青睐与美光同国籍的产品。 “随着美光宣布积极进军市场,竞争很可能会加剧,”一位半导体业内人士表示。

美光则透露,英伟达预计在 2024 年使用其 HBM3E。

责编: 爱集微
来源:钜亨网 #HBM#
THE END
关闭
加载

PDF 加载中...