TrendForce分析表明,NVIDIA的GPU目前主导着人工智能服务器市场,拥有令人印象深刻的60-70%的市场份额。紧随其后的是ASIC芯片,由CSP独立开发,占据了超过20%的市场。三个关键因素推动了英伟达的市场主导地位:首先,英伟达的A100和A800型号受到美国和中国CSP的追捧。有趣的是,2H23的需求曲线预计将逐渐向较新的H100和H800型号倾斜。这些型号携带的ASP是A100和A800的2-2.5倍,放大了它们的吸引力。此外,英伟达并没有停留在它的桂冠上;它正在通过积极推广其自主开发的机器解决方案(如DGX和HGX)来积极支持这些型号的吸引力。
其次,高端GPU的盈利能力,特别是A100和H100型号,发挥着至关重要的作用。TrendForce的研究表明,NVIDIA在GPU市场的最高定位允许H100的价格变化很大,这可能会产生近5000美元的明显差异,这取决于买家的购买量。
最后,随着我们进入下半年,预计ChatBOT和人工智能计算的普遍影响将持续下去,将其足迹扩展到各个专业领域,如云和电子商务服务、智能制造、金融保险、智能医疗保健和高级驾驶辅助系统。与此同时,对人工智能服务器的需求明显上升,特别是配备4-8个GPU的基于云的服务器和拥有2-4个GPU的边缘AI服务器。TrendForce预测,配备NVIDIA旗舰A100和H100型号的人工智能服务器的年增长率将达到50%,令人惊讶。
TrendForce报告称,部署在高级GPU中的高速RAM接口HBM将大幅上升需求。NVIDIA即将推出的H100 GPU定于今年发布,配备了更快的HBM3技术。与之前的HBM2e标准相比,这种改进放大了人工智能服务器系统的计算性能。随着对尖端GPU的需求不断升级,包括NVIDIA的A100和H100、AMD的MI200和MI300以及谷歌的专有TPU,TrendForce预测,2023年HBM需求将同比增长58%,预计2024年将进一步增长30%。