黄仁勋宣布下一代人工智能平台“RubinHBM4内存集成预计
2024-06-04 09:32:24
描述
投资要点2024年6月2日,黄仁勋宣布下一代人工智能平台“RubinHBM4内存集成预计将于2026年发布。►“Rubin“确认配备HBM4,存力成为升级的重要方向2024年6月2日,北京时间,英伟达(NVIDIA)COMPUTEXCEO黄仁勋 在2024年会议上发表
[本文共字,阅读完需要分钟]

投资要点

2024年6月2日,黄仁勋宣布下一代人工智能平台“RubinHBM4内存集成预计将于2026年发布。

►“Rubin“确认配备HBM4,存力成为升级的重要方向

2024年6月2日,北京时间,英伟达(NVIDIA)COMPUTEXCEO黄仁勋 在2024年会议上发表了题为“开启工业革命新时代”的演讲,宣布Blackwell芯片已投产,其增强版Blackwelll Ultra GPU芯片预计将于2025年推出,下一代数据中心GPU架构名称为“Rubin”,HBM4内存将集成,Rubin GPU和Rubin Ultra GPU预计将于2026年和2027年发布。

存力是英伟达人工智能产品升级的重要方向。2023年11月,基于Hopper结构的H200发布了6个HBM3E芯片,容量为141GB,带宽为4.8TB/s。仅4个月后,英伟达发布了新一代GPU架构——Blackwell;Blackwell GPU配备8层HBM3E芯片,容量192GB,带宽8TB/s,现已投产;Blackwellll的增强版 Ultra GPU芯片预计将于2025年推出,配备8层HBM3E芯片。英伟达计划于2026年推出。Rubin下一代数据中心GPU架构。Rubin基于Rubin架构 GPU将配备8个HBM4芯片;Rubin Ultra GPU将集成12个HBM4芯片,预计将于2027年推出,这也是英伟达首次在AI半导体芯片中使用12个HBM芯片。

►三大原厂加快HBM迭代,推动产业链升级

2024年,美光、SK海力士、三星三大仓储原厂相继实现了HBM3E的量产,同时加快了HBM4的研发。

美光:2024年2月,美光宣布量产HBM3E,并将携带NVIDIA H200 Tensor Core GPU。单引脚最大I/O速率超过9.2Gbit/s,最高带宽超过1.2TB/s,层数为8层,容量为24GB。此外,美光还提供12层堆叠HBM3E样品,容量为36GB。美光计划于2026年推出HBM4产品,最大带宽超过1.5TB/s,堆叠层数达到12/16层,容量为36GB~48GB。美光预计HBM4E产品将于2028年推出,容量将增加到48GB~64GB,带宽将增加到2TB/s以上,堆叠层数仍为12/16层。

SK海力士:2023年8月,SK海力士宣布成功开发HBM3E,单引脚最大I/O 速率为9.2Gbit/s,层数为12层,最高带宽超过1.18TB/s;同时,该产品采用MR-MUF技术,散热性能提高10%。2024年3月,SK 海力士宣布HBM3E已开始量产。2024年4月,SK 海力士宣布将与台积电合作开发HBM4产品。SK海力士表示,应大客户要求,HBM开发进度将提前一年,预计HBM4开发将于2025年完成;HBM4E最早于2026年推出,内存带宽将是HBM4的1.4倍。

三星:2023年10月,三星推出其HBM3E产品-“Shinebolt单引脚最大I/O速率高达9.8Gbit/s,同时提供1.2TB高带宽/s。据Wccftech报道,8层HBM3E已于2024年4月量产,容量高达36GB的12层HBM3E计划于24Q2量产。ISSCC 在2024年,三星公布了HBM4的研究成果,最高带宽为2TB/s,并计划于2025年通过16层堆叠实现48GB容量。

我们认为,以英伟达为代表的人工智能芯片制造商正在加快开发周期,HBM作为人工智能芯片最强大的辅助,也在加速迭代,同时带来新的需求,促进HBM产业链的持续升级。华金电子孙元峰团队-HBM快递

1)封测环节:通富微电(先进封装)、长电技术(先进包装)等;

2)设备环节:拓荆科技:(PECVD+ALD+键合设备)、华海清科(减薄+CMP)、华卓精科(拟上市,键合设备)、芯源微(临时键合和解键合)等;

3)材料环节:华海诚科(环氧塑料密封)、天承科技(RDL+TSV电镀添加剂)、艾森股份(先进包装电镀)等。