Q:A30等国内英伟达推理卡、A40和L40的需求是多少?
2024-03-23 12:35:15
描述
Q:A30等国内英伟达推理卡、A40和L40的需求是多少?A:中国对英伟达的各种推理卡需求量很大。A30、A40包括L40,在推理应用场景中至少需要10万张。特别是随着各种应用场景的实施和大量小型模型的部署,对这些卡的需求将进一步增
[本文共字,阅读完需要分钟]

Q:A30等国内英伟达推理卡、A40和L40的需求是多少?

A:中国对英伟达的各种推理卡需求量很大。A30、A40包括L40,在推理应用场景中至少需要10万张。特别是随着各种应用场景的实施和大量小型模型的部署,对这些卡的需求将进一步增加。目前,对于可销售的A40、A10,包括L20,甚至H20,都有很高的需求,我们从用户那里收集了一些订单需求。

Q:英伟达的训练卡和推理卡现在的供应情况如何?24年的市场形势预测是什么?

A:目前,英伟达在中国的主要产品是H20和L20卡。H20是基于Hopper架构,HBM3缓存96G。与H100相同的芯片组和缓存组,显存甚至比H100的80G还要大。H20支持4TB/s的GPU内存率,尤其是单晶训练,主要用于推理。另一方面,L20的显存率是H20的一半,而内存传输率下降了三到四倍。就2024年而言,如果技术和政策环境保持稳定,预计H20、L20等卡可以正常交付,满足市场需求。然而,在人工智能的竞争中,国内产品与最新NVD产品之间的性能差距将越来越大,这可能会导致国内需要更多的设备来赶上国际培训和推理服务的速度。很难估计具体数量。

Q:英伟达的显卡目前国内价格是多少?生成(神农)卡的交付量和价格状况如何?

A:H100P3E卡在中国的价格约为24500元,L20元约为75000元,H20元约为14000元。此外,春节后RTX4090卡价格上涨,目前为2万元。生成(神农)卡,以八卡整机的形式,价格在150万左右。去年神农卡的交货量约为150,000件,到2024年可能会增加到20,000到25万件。这意味着神农卡的需求正在上升,部分原因可能与国内对人工智能和深度学习计算需求的增加有关。

Q:能否分析国内服务器企业的竞争格局和各自的优缺点?

A:国内服务器市场的主要竞争对手包括浪潮、新华三、三超聚变、联想、戴尔、宁唱(中科曙光品牌)。浪潮具有突出的产品能力和大规模交付能力,具有较强的定制能力,特别是在互联网和通信运营商市场。波浪在GPU计算服务器领域占有率超过50%,但由于技术限制和交付问题,在当前环境下受到很大影响。离开华为后,三超聚变失去了华为整体解决方案的优势,影响了其竞争力。新华三在通用服务器市场占有率约7%-10%,在人工智能服务器市场占有率接近15%。新华三通过大型系统集成商满足中型行业用户,并通过H3C和惠普产品保持市场竞争力。宁唱则是利用中科曙光在高性能计算领域的基础来维护市场。戴尔的策略是通过分销模式接触中小企业客户。

Q:英伟达服务器卡产品在中国市场能否详细介绍?

A:H800和H100是中国主要的高端英伟达产品。H800是中国的特殊版本。由于部分公开招标企业无法取消订单,部分库存从海外市场进口,价格为300万至310万元。H100价格略低,280-290万元。A7100的PCIE产品价格在25万元左右,按8张卡计算,总价在200万元左右。L40和A40的价格分别在110万元和70万元左右。目前,最新的L20市场价格约为75万元。H20目前还没有在中国市场销售,但其性能估计是L20的两倍,单卡价格可能是13万到14万元,整机估计价格超过120万元。

Q:与通用计算服务器相比,浪潮公司AI服务器的毛利率有什么区别?

A:与通用计算服务器相比,人工智能服务器的毛利率显著提高。多年来,通用计算服务器的毛利率一直保持在10%左右,而人工智能服务器的毛利率至少提高了5个百分点。我们估计,人工智能服务器的毛利率应该在16%到20%之间,但必须高于15%。

Q:16%的毛利率是否包括GPU卡?

A:16%的毛利率不包括GPU卡。我们是基于GPU服务器模型与通用计算服务器模型之间的对比分析,没有插入GPU卡。当没有GPU卡时,通用服务器和人工智能服务器之间存在百分点差距。

Q:客户购买AI服务器时,GPU卡是否由客户自行购买?

A:并非全部如此。整机厂家主导销售非禁售产品、浪潮等,如L20、L2和A10等卡。对于A8000等禁止销售的卡、H800、L40S等,客户需要通过渠道提供商或集成商购买单卡。

Q:如何量化浪潮服务器的毛利和净利润?

A:以通用服务器为例,平均价格约为6.5万至7万元,OEM制造商可赚取毛利润约5万元。人工智能服务器,如果不包括GPU卡,其机身和其他配件更贵,以HGX整机为例,机身价格在17万至20万元之间,毛利润可达到3万至4万,约为通用计算服务器的6至8倍。

Q:GPU和存储的销售策略是什么?在这个过程中会盈利吗?

A:OEM制造商在帮助客户购买GPU和存储等电子材料后,将获得一定的利润。利润通常来自占用的资本成本和服务费,约为零部件或服务费的3%至5%。对于H800等核心部件的采购,虽然价格可能在300万左右,但只能以200万到210万的价格销售,整机制造商相应的服务利润将相对降低。这就是为什么许多制造商积极销售自己的人工智能计算服务器,因为即使在相对较低的占用成本中,他们也可以通过高毛利润的硬件销售获得更高的整体利润。

Q:大型互联网制造商的GPU卡,CPU、内存、硬盘等关键部件的采购流程是什么?与OEM制造商有什么关系?

A:大型互联网制造商通常有自己的特定型号。与上游制造商讨论价格后,OEM制造商将进行投标,预付款购买这些核心部件,然后安装在整机上,然后交付。其中,大型互联网制造商可以获得子型号的特殊价格和供应保证。在这个过程中,OEM制造商可以赚取的主要是关键部件的资本占用成本,通常是一两个百分点。

Q:小厂家的采购模式和大厂有什么区别?可操作的空间有哪些?

A:当OEM制造商有更多的操作空间时,小型制造商通常只能购买整机。OEM制造商可以根据情况引导用户提供不同的CPU、不同内存或容量和接口的硬盘。小型制造商需要服务器制造商购买相关零件。

Q:液冷技术目前的发展趋势如何?液冷领域哪些厂商走在前列?

A:在碳中和的总体趋势下,由于人工智能服务器耗电量大,采用液体冷却散热已成为一种具有成本效益的解决方案。浪潮提出了液体冷却策略,几乎所有服务器产品都配备了液体冷却方案,用户可以根据需要选择风扇版本或液体冷却版本。液体冷却技术主要包括冷板液体冷却和背板液体冷却两种方法。浪潮在液体冷却方面做得很好,几乎所有的产品都设计了液体冷却方案。

Q:液冷产品的供应商是由服务器制造商自己提供还是由第三方提供?

A:NVIDIA现在支持液体冷却。在早期阶段,它的硬件设计不包括液体冷却方案,但现在它的硬件产品支持这一点。在液体冷却产品的供应方面,服务器制造商需要重建和设计自己的设备,数据中心需要支持从服务器端到机柜端的热液交换设施。液体冷却不再仅仅通过空气,而是通过冷却水循环。

Q:未来如果H20能卖,国内培训厂家是更倾向于购买H20还是性价比低,购买欲望不如H100或H800?

A:与原H100相比,H20的性能有所下降,其性能约为H100的25%至30%,这意味着需要更多的设备和网络网络来保持相同的计算能力,导致整体成本增加。这将使需要大规模培训的互联网用户至少考虑其他解决方案,如计算租赁或购买一些所谓的禁止产品。因此,H20可能不会受到国内制造商的青睐,他们更倾向于继续购买H100和H800,甚至英伟达刚刚发布的最新GPU卡。这是因为这些算力卡在中国相当于战略物资。特别是考虑到英伟达新发布的B200芯片性能可能是H100的五倍,其性能优势可能是华为和寒武纪产品的几十倍甚至20倍,因此国内市场对B200的需求可能更大。

Q:与升腾910等国产芯片相比,你觉得它们在市场上的竞争力如何?

A:目前,我国生产GPU的HBM高速缓存芯片只能使用第二代H100使用的第五代HBM芯片。华为的升腾910等相关国产芯片主要集中在推理端,而在训练端,包括升腾910,在性能上仍不如英伟达的H100。考虑到这些因素,由于供给限制和生态兼容性,即使是910,其在市场上的竞争力也是有限的。无论是生产还是性能,大多数国产算力卡都在推理端占据主导地位,而训练端则相对较弱。SEVEN研究记录