登录注册
人工智能专题 | 增长近5600倍的模型参数,AI服务器到底多重要?
戈壁淘金
只买龙头的老司机
2023-04-27 05:54:36

天风国际2023-04-26

自OpenAI发布ChatGPT以来,海内外厂商都加速布局基础大模型的研发,中国的基础大模型也百花齐放,多家厂商陆续推出大模型并开始用于自身业务或寻找具体行业伙伴进行落地。比方说:百度(09888.HK)文心一言、阿里(09988.HK)通义千问、360智脑、商汤(00020.HK)SenseChat、昆仑万维天工大模型以及科大讯飞星火认知大模型。而在这些发展的过程中,通常伴随着模型参数量增大、训练数据增多的趋势,对于芯片的算力需求持续增长。

根据《AI算力集群方案设计与优化》总结的过去4 年全球主要 NLP(自然语言处理)模型,模型的参数量从ELMo 的 9400 万增长至Megatron-Turing NLG 的 5300 亿,增长了近 5600 倍。以 GPT-1 到 GPT-3 的发展过程为例,2018 年6月GPT-1 发布,GPT-1 预训练过程是无监督的,采用了 BooksCorpus 数据集,整个模型参数量达到1.17 亿,而GPT-3 于 2020 年 5 月发布,通过更为海量的参数来进行训练和学习,参数量猛增至 1750 亿。

首先要了解未来服务器的发展到底有多大之前,AI 模型主要分为:训练和推理过程,训练奠定模型的性能根基,推理是将已有模型应用到具体场景对相应需求做出反馈的过程。


图片来源于:英伟达

大模型的训练阶段,影响因素主要是:模型参数量、训练数据量和芯片算力。根据 GPT-3 对应的论文《Language Models are Few-Shot Learners》,以目前主流的训练芯片英伟达 A100 为例进行测算,考虑到通常进行训练采用FP16 精度即可,对应 312 TFLOPS 算力,以算力利用率为 100%进行计算,预计单日 GPU 的消耗量为 11667 张。若考虑到通常的算力利用率可能仅为 30%左右,预计实际单个 GPT-3 模型要在单日内完成训练所需的 GPU 张数有望达到 3 万张以上。


图片来源于:招商证券

大模型的推理阶段呢?推理端远期算力芯片消耗数量数倍于训练阶段,主要是因为应用需求弹性较大、推理端单芯片算力通常较训练端较小等因素影响所致。根据英伟达(NVDA.US)官网信息,以 GPT-3 模型的 1746 亿参数量进行计算,预计单日 GPU 芯片需求量为 24495 片。

图片来源于:招商证券

综合考虑训练和推理阶段算力需求,根据招商证券数据显示,预计 2027 年 AI 服务器GPU 市场规模超 1000 亿元,对应的 AI 服务器市场规模超 2000 亿元。

图片来源于:招商证券

所以未来全球数据中心的建设将是数字经济时代的硬件基地,数据中心的购置花费中服务器占比最大,达到 70%。根据英伟达(NVDA.US)官网给出的数据,通常一个数据中心的购置预算花费由服务器、存储、软件和服务构成,其占比分别为 70%、20%、10%,服务器在购置预算中的占比最大,凸显数据中心中服务器的核心地位。

根据 TrendForce 信息,2022 年,搭载 GPGPU(General Purpose GPU)的 AI 服务器年出货量占整体服务器比重近1%,而 2023 年预估在 ChatGPT 相关应用加持下,预估 2023 年出货量年同比+8%,而2022~2026 年复合成长率将达 10.8%。

22Q4 全球服务器市场份额构成中,ODM 厂商占比超过 28.2%,品牌厂商中占比超过 5%的有:戴尔(DELL.US)、惠普(HPQ.US)、联想(00992.HK)、浪潮、SuperMicro,中国服务器品牌商在全球市场和国际厂商占比差距相对较小。在 AI 服务器市场,21H1 全球 AI 服务器市场中,浪潮信息以 20%的占比拔得头筹,戴尔(DELL.US)和惠普(HPQ.US)分别以 14%和 10%的占比紧随其后,当前中国 AI 服务器的能力在全球市场处于前列位置。

· 服务器产业链:

· 服务器上游:主要包括:芯片、PCB、连接器、线缆、电源和各类接口等。此处的服务器上游主要是从硬件层面对服务器进行拆解,得到的服务器内部核心零部件供应商领域,比方说: GPU、CPU、存储、PCB/载板、连接器等,这一块的全球核心是供应商:英伟达(NVDA.US)。

· 服务器中游:主要包括服务器品牌上和 OEM/ODM 厂商,未来 OEM/ODM或将逐步向 JDM 模式转变。

· 服务器下游:主要是采购服务器的各类客户群体,比如:云服务商、运营商、政府机构、金融机构等。

英伟达(NVDA.US)公司两大业务是GPU(显卡)以及Tegra处理器,产品主要面向游戏、数据中心、专业可视化和汽车四个专业市场。

美国超微公司(AMD.US):公司正式发布了基于“Zen 4”核心的第四代EPYC处理器,业界首次为单颗处理器设计了96颗高效能x86处理器核心,实现了更高的性能与能效。

戴尔(DELL.US)公司采用第四代AMD EPYC处理器的新一代PowerEdge服务器诞生了。与上代产品相比,新PowerEdge服务器内核数量提高了50%,整体系统性能可提升121%,其中2U与1U服务器前端驱动器数量分别增加了33%和60%。

浪潮信息(000977)信息服务器蝉联中国第一,自 2017 年以来,浪潮信息已连续 5 年保持中国 AI 服务器市场份额超过 50%,浪潮信息全球市场占有率达 20.9%,保持全球市场第一。

景佳微(300474)GPU 芯片产品已完成与中国主要的CPU 和操作系统厂商的适配,JM9 系列可以应用于人工智能、云计算等高端应用领域,提供算力支持。

海光信息(688041)海光CPU 产品可以应用于高端服务器、数据中心、中低端服务器以及边缘计算服务器等计算领域中,DCU 产品专门用于为人工智能和深度学习提算力支持。江波龙(301308)公司的 DDR4RDIMM 内存条、SSD 系列产品可用于服务器中的内存模块,与服务器中 CPU 直接交换数据。








作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
浪潮信息
S
景嘉微
S
海光信息
工分
21.98
转发
收藏
投诉
复制链接
分享到微信
有用 16
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(8)
只看楼主
热度排序
最新发布
最新互动
  • 1
前往