黄仁勋:GB200生产顺利 AI服务器产线满载

来源:经济日报 #英伟达# #AI#
1813

近期英伟达(NVIDIA)GB200AI服务器出货递延杂音四起,英伟达执行长黄仁勋18日接受外媒《连线杂志》(Wired)专访时辟谣,高呼「GB200正满载生产、进展顺利」,并大赞最新Blackwell平台服务器在推理过程中兼顾高效和节能之余,效能更大增30倍。

黄仁勋并直言,「愈来愈多公司争相建置AI能量,三个月的时间差可能就会改变游戏规则。」法人指出,黄仁勋出面辟谣,并对Blackwell平台服务器「超强效能」信心喊话,有稳定军心味道,也为鸿海(2317)、广达(2382)、纬创(3231)、英业达(2356)等GB200 AI服务器代工厂出货吞定心丸。

鸿海、广达等首批出货GB200 AI服务器的代工厂先前均透露,将于年底前小量出货,明年第1季放量。如今黄仁勋出面稳军心,代工厂大量认列GB200 AI服务器机柜出货实质营收贡献,可望如先前预期推进。

广达指出,高频、高算力服务器产品在验证过程中,从前段芯片组良率到后段装机测试等,一定会出现各式各样问题,供应链势必会一层一层解决,确保量产良率。

英伟达Blackwell平台AI芯片正陆续交付,「地表最强AI芯片」GB200服务器出货放量在即,市场对出货进度关注节节升温。

研调机构集邦科技(TrendForce)17日示警,由于高速互通介面、热设计功耗(TDP)等关键零组件设计规格明显高于主流,供应链需要更多时间调校优化,AI服务器机柜放量出货时程恐递延至明年第2季甚至第3季,比业界预期晚一季到半年。

黄仁勋受访透露Blackwell平台AI芯片出货进展顺利,也点出其超强效能。黄仁勋表示,过去通常需花费数月处理训练模型所需数据,接着再训练模型,透过Blackwell可提升训练模型效率,将时间压缩至原先三分之一到四分之一,假如原先需要六个月,现在仅需耗时一个半月左右。

谈及Blackwell推理能力,黄仁勋指出,推理过程遵循的不是零样本学习或单样本学习,而是长期思考模式,本质上是AI先在脑海中构思各种不同解法,再用更多算力,提供更适当的答案,称之为测试阶段标准化(test time scaling)或推理阶段标准化(inference time scaling),Blackwell服务器在推理过程中兼顾高效和节能。

责编: 爱集微
来源:经济日报 #英伟达# #AI#
THE END
关闭
加载

PDF 加载中...