AI服务器市场情况 国内英伟达推理卡
2024-03-25 09:39:46
描述
AI服务器市场情况- 国内英伟达推理卡(如A30)、A40、L40)需求量大,至少10万片。- H20和L20是英伟达训练卡和推理卡的主要产品,预计2024年将满足市场需求。- 英伟达显卡在国内价格较高,H100P3E约24500元,L20约75000元,H20约1
[本文共字,阅读完需要分钟]

AI服务器市场情况

- 国内英伟达推理卡(如A30)、A40、L40)需求量大,至少10万片。

- H20和L20是英伟达训练卡和推理卡的主要产品,预计2024年将满足市场需求。

- 英伟达显卡在国内价格较高,H100P3E约24500元,L20约75000元,H20约14000元。

- 包括浪潮、新华三、三超聚变、联想、戴尔、宁唱在内的国内服务器市场竞争对手,各有优缺点。

英伟达产品及价格

- H800和H100是国内市场可以买到的高端英伟达产品,价格在300万元和280万元左右。

- A7100 PCIE产品价格约25万元,L40和A40分别在110万元和70万元左右。

- 人工智能服务器的毛利率明显高于通用计算服务器,估计在16%到20%之间。

液冷技术的发展

- 液冷技术在数据中心越来越受到重视,浪潮等服务器制造商已经推出了液冷产品。

- 与风冷相比,液冷散热效率更高,有助于降低数据中心的能耗,提高PUE。

- 液冷散热技术包括浸没式和冷板式,英伟达NVL72系统采用冷板式液冷。

光模块市场情况

- GPU和1.6T光模块在GB200系统中的比例保持不变,而连接数据中心局域网时的具体数量关系取决于交换机构的层数。

- GB200系统中光模块的应用场景和潜在增长点包括单机柜的高集成方案和跨机柜的互联需求。

- 预计2025年将实现1.6T网络加速落地,对光模块和交换机行业产生积极影响。

英伟达技术升级

- 英伟达第五代NV Link技术实现了双向带宽的双倍增长,提高了GPU之间的通信效率。

- NV switch芯片解决了第一代架构中无法实现完全点对点连接的问题,提高了GPU连接的效率。

- NV通过GB200芯片组网方案 link 5.0技术实现了高速互联,提高了人工智能计算场景中显存需求较高的性能。

销售策略和市场竞争力

- 英伟达的销售策略转变为突出单机柜GPU性能升级。

- 国内对人工智能和深度学习计算需求的增加,促进了神农卡等产品销量的增加。

- 与升腾910等国产芯片相比,英伟达产品在训练端性能上仍占主导地位,但国产芯片在推理端占主导地位。

SEVEN研究记录