根据TrendForce集邦咨询最新HBM报告,随着AI芯片的迭代,单一芯片搭载的HBM(高带宽内存)容量也明显增加。NVIDIA(英伟达)目前是HBM市场的最大买家,预期2025年推出Blackwell Ultra、B200A等产品后,其在HBM市场的采购比重将突破70%。
TrendForce集邦咨询表示,以NVIDIA Hopper系列芯片为例,第一代H100搭载的HBM容量为80GB,而2024年放量的H200则跃升到144GB。在AI芯片与单芯片容量的增长推动下,对产业整体的HBM的消耗量有显著提升,2024年预估年增率将超过200%,2025年HBM消耗量将再翻倍。
据TrendForce集邦咨询近期供应链调查,NVIDIA规划降规版B200A给OEM(原始设备制造商)客户,将采用4颗HBM3e 12hi(12层堆叠),较其他B系列芯片搭载的数量减半。TrendForce集邦咨询指出,即使B200A的HBM搭载容量较小,仍不影响整体市场的HBM消耗量,因为芯片选择多元化,有助于提高中小客户的采购意愿。
2025年NVIDIA对HBM3e消耗比重有望破85%
TrendForce集邦咨询表示,虽然SK hynix(SK海力士)、Micron在2024年第二季开始量产HBM3e,但NVIDIA H200的出货将带动英伟达在整体HBM3e市场的消耗比重,预估2024年全年可超过60%。进入2025年,受到Blackwell平台全面搭载HBM3e、产品层数增加,以及单芯片HBM容量的上升,NVIDIA对HBM3e市场整体的消耗量将进一步推升至85%以上。
HBM3e 12hi是2024年下半年市场关注的重点。预计于2025年推出的Blackwell Ultra将采用8颗HBM3e 12hi,GB200也有升级可能,再加上B200A的规划,因此,预估2025年12hi产品在HBM3e当中的比重将提升至40%,且有机会上升。
随着进入到HBM3e 12hi阶段,技术难度也提升,验证进度显得更加重要,完成验证的先后顺序可能影响订单的分配比重。目前,HBM的三大供应商产品皆在验证中,其中Samsung(三星)在验证进度上领先,并积极提高其市占率。今年的产能大致确定,主要产能仍以HBM3e 8hi(8层堆叠)为主,因此,HBM3e 12hi产出增长主要仍贡献于2025年。
英伟达推出B200A瞄准OEM客群,预估2025年高端GPU出货量年增55%
预估2024年全球AI服务器产值达1870亿美元,约占服务器市场比重65%
AI服务器与笔电升级带动高容值MLCC需求,供应商平均售价上涨
AMD、NVIDIA需求推动FOPLP发展,预估量产时间落在2027-2028年
▶关于我们
TrendForce集邦咨询是一家横跨存储、集成电路与半导体、晶圆代工、光电显示、LED、新能源、智能终端、5G与通讯网络、汽车电子和人工智能等领域的全球高科技产业研究机构。公司在行业研究、政府产业发展规划、项目评估与可行性分析、企业咨询与战略规划、品牌营销等方面积累了多年的丰富经验,是政企客户在高科技领域进行产业分析、规划评估、顾问咨询、品牌宣传的优质合作伙伴。
上下滑动查看
发现“分享”和“赞”了吗,戳我看看吧