据测算,AI训练服务器方面,单个大语言模型训练驱动AI训练服务器需求约2亿美元。
AI推理服务器方面,单个AI应用如ChatGPT在初期便可带动推理服务器需求约45亿美元。
01
AI服务器驱动因素
据IDC,AI的应用与普及促使2022年我国智能算力规模近乎翻倍,达到268EFLOPS,超过通用算力规模,2026年我国智能算力规模将达1271.4EFLOPS,21-26年复合增长率预计达52.3%;硬件占AI支出比重49.8%,其中最大投资是服务器,占AI硬件支出比重84%以上。
2、单个大语言模型训练驱动AI训练服务器市场
AI训练服务器方面,单个大语言模型训练驱动AI训练服务器市场约2亿美元需求。
据英伟达测算,要完成一次10000亿参数大语言模型的训练,使用4096颗A100GPU约需4周时间,使用4096颗H100GPU约需1周时间。
按每台服务器配备8颗H100GPU计算,则完成一次万亿参数的大语言模型训练需约500台服务器,配备8个H100GPU的服务器价格约为40万美元,则单个大语言模型训练驱动AI训练服务器约2亿美元需求。
3.ChatGPT驱动AI推理服务器市场需求
AI推理服务器方面,单个AI应用如ChatGPT在初期便可带动推理服务器需求达45亿美元。
据Similarweb数据,ChatGPT官网在2023年1月27日-2月3日一周内吸引的每日访客数量高达2500万,假设平均针对50字的提问生成400字的响应(即450字,对应600token),根据OneFlow的数据和《Scaling Laws for Neural Language Models》,在推理过程中每个token的计算成本约为2NFlops,其中N为模型参数数量,则在ChatGPT4一万亿参数中每个token需算力2万亿Flops,且据Chowdhery等测算GPT-3训练期间FLOPS利用率为21.3%,则可得每人每次提问需算力5.6PetaFlops(2万亿Flops*600token/21.3%)。假设每日2500万人访问量,每人提问10次,且一天内平均分摊,则每秒算力需求约16302PetaFlops,假定访问峰值是一天均值的5倍,则每秒算力需求约81508PetaFlops。
目前AI推理所使用的主流GPU是英伟达T4,一块英伟达T4GPU可提供的混合精度算力为65TFlops,则需约125万个T4GPU方可满足单日对ChatGPT的访问,对应15.67万台8*T4的服务器,一台8*T4服务器的价格约29000美元,则仅单个如ChatGPT的AI应用在初期便带来推理服务器需求约45亿美元。
02
AI服务器概述
2.分类
1)按应用场景可分为训练和推理,训练对算力要求更高
AI服务器按应用场景可分为训练和推理两种,2021年中国AI服务器推理负载占比约55.5%,未来有望持续提高;训练对芯片算力要求更高,推理对算力的要求偏低;
3.成本
1)GPU+CPU+存储三大件占比80%
AI服务器价值量的构成核心在于昂贵的GPU加速卡、CPU和存储配置,同时对于PCB、电源管理、信号传输等多方面均有更高需求,亦带来大幅的价值量提升。
2)FPGA 在大模型领域有潜在提升空间
当前AI加速计算卡除了GPU之外还有部分FPGA产品,FPGA具备低延迟、易烧录等优点,FPGA通常用于推理阶段,关注未来FPGA在大模型领域潜在的渗透率提升空间。目前,我们在AI计算平台使用最广泛的两种加速部件是GPU和FPGA。
03
AI服务器竞争格局
1.海内外服务器市场持续增长,国内市场一超多强
全球方面,根据IDC数据,2022年全球服务器出货量突破1,516万台,同比增长12%,产值达1,215.8亿美元,预计未来四年内仍保持增长,2026年全球服务器出货量达1885.1万台,2022-2026年全球服务器出货量CAGR为5.59%,产值有望达到1664.95亿美元,2022-2026产值CAGR为8.18%。
据IDC,浪潮、新华三、超聚变、宁畅、中兴 位居2022年中国服务器市场前五,市场份额占比分别为 28.1% /17.2%/10.1%/6.2%/5.3%
2022年AI服务器采购量中,北美四大云端供应商Microsoft、Google、Meta、AWS合计占比约66%,而中国近年来AI建设浪潮持续升温,字节跳动年采购占比达6.2%,腾讯、阿里巴巴、百度紧接其后,分别约为2.3%、1.5%与1.5%。海外云巨头对AI服务器的需求更大,但随着国内AI大模型的开发及应用拉动更多AI服务器需求,中国AI服务器市场空间有望进一步提升。
3、全球GPU龙头 英伟达
据英伟达在IEEE会议公布数据显示,从2012年的K20X到2020年的A100,GPU的推理性能提高了317倍,远超摩尔定律的发展速度。A100作为当前AI服务器GPU中的高端产品,性能相比上一代VoltaGPU提升20倍,其AI推理性能是CPU的249倍,打破16项性能AI记录。
4.华为:服务器产业深耕多年,打造“鲲鹏+昇腾”双引擎战略布局
华为从2008年开始对外提供服务器产品,目前形成了通用计算(鲲鹏)和AI计算(昇腾)两大业务布局。据IDC数据,华为2021年H1在中国服务器市场的份额为11.2%。据counterpoint数据,2021年全年华为服务器业务收入43.43亿美元,全球市场份额占比4.5%。由于美国将华为列入实体清单,限制x86架构的芯片供给,华为在2021年12月出售了x86服务器业务。原本主营x86服务器业务的子公司超聚变分离后仍然稳定发展,2022年国内市占率位列第三,达到10.1%。目前华为致力于打造以“Arm架构的鲲鹏+达芬奇架构的昇腾”为根基的双引擎战略布局,借助自研芯片优势,持续拓展服务器业务布局。
此外,昇腾系列AI服务器包括Atlas800推理服务器与Atlas800训练服务器,广泛应用于中心侧AI推理、深度学习模型开发和训练场景。Atlas800推理服务器搭载64核架构的鲲鹏920处理器,支持8张Atlas300I推理卡,整机可提供640路高清视频实时分析(1080P25FPS),Atlas800训练服务器达到4U高度,最高可提供2.24PFLOPSFP16的算力,为AI推理、深度学习模型开发和训练提供超强算力支持。
04
AI服务器市场空间
05
AI服务器产业链梳理