登录注册
服务器产业链如何受益于AI大模型
独立户
机构
2023-03-29 17:17:39
(报告出品方:华泰证券)

产业链公司梳理

以 ChatGPT 为代表的 AI 应用掀起 AI 落地千行百业的浪潮,驱动算力需求增长。我们认为服务器产业链将深度受益于 AI 算力需求,产业链公司包括:

1)服务器品牌及整机:联想、 浪潮信息、工业富联、中兴通讯、紫光股份;

2)PCB&CCL&ABF 载板:沪电股份、深南电路、 生益电子、兴森科技、胜宏科技、生益科技、华正新材等;

3)主机板:环旭电子;

4)半导体:寒武纪、海光信息、龙芯中科、澜起科技、杰华特、东微半导、华润微、闻泰科技等;

5)光模块及光芯片:中际旭创、新易盛、天孚通信、华工科技、源杰科技等;

6)光纤光缆:长飞光纤光缆、亨通光电、中天科技等;

7)热管理:英维克、申菱环境。

AI 大模型如何推动服务器产业链需求

为了满足 AI 市场的需求,英伟达今年 GTC2023 上不仅发布了 L4 Tensor Core GPU、L40 GPU、H100 NVL GPU 和 Grace Hopper 等芯片,还进一步推出 NVIDIA DGX 超级计算机, 成为大语言模型实现突破背后的引擎。英伟达在 GTC2023 中表示,《财富》100 强企业中有一半安装了 DGX AI 超级计算机,DGX 已成为 AI 领域的必备工具。 DGX 配有 8 个 H100 GPU 模组,H100 配有 Transformer 引擎,旨在支持类似 ChatGPT 的大模型。这 8 个 H100 模组通过 NVLINK Switch 彼此相连,以实现全面无阻塞通信。8 个 H100 协同工作,形成一个巨型 GPU。通过 400 Gbps 超低延迟的 NVIDIA Quantum InfiniBand 进行网络内计算,将成千上万个 DGX 节点连接成一台 AI 超级计算机,并不断扩展应用范围,成为全球客户构建 AI 基础设施的蓝图。

 服务器厂商如何把握 AI 大模型机会

AI 大模型训练和推理催生 GPU 需求上涨,AI 服务器采用异构式架构,NVIDIA DGX A100 服务器 8 个 GPU+2 个 CPU 的配置远高于普通服务器 1~2 个 CPU 的配置,能够满足 AI 大模型需求。在单芯片计算训练性能不断提升的基础上,服务器整体能效的提升同样受到关注。IDC 预计,全球 AI 服务器市场规模稳健增长,2021-2026E CAGR 预计达 17%。我们认为,AI 大模型将带动算力需求增长,催生对 AI 服务器的需求。工业富联、联想、中兴通讯、紫光股份等公司有望把握住AI大模型带来的机会,受益于AI服务器需求的持续提升。

全球 AI 服务器市场规模稳健增长,2021-2026E CAGR 预计达 17%

根据 IDC 数据,2014-2021 年,全球服务器厂商销售总额总体呈上升趋势,2021 年全球服务器市场规模达到 USD99bn。其中,戴尔、HPE、联想、浪潮信息市场份额排名前列,合计占 比超过 40%。IDC 认为 2021-2026E 全球 AI 服务器厂商市场规模将稳健增长,2026 年市场规模有望达 USD35mn,预计 2021-2026E CAGR 达到 17%。1H21 全球 AI 服务器厂商竞争格局相对集中,其中浪潮信息占比最高(20.2%),其次是戴尔、HPE、联想。

AI 服务器采用异构式架构,GPU 数量远高于普通服务器

AI 大模型训练和推理催生 GPU 需求上涨。目前 AI 训练主要采用:1)英伟达在 AI 训练 GPGPU:包括 V100/A100/H100(22 年下半年开始量产出货)以及美国限制出口后英伟达推出的裁剪版 A800。2)AMD 推出的 AI 训练芯片包括 MI 250/250X/300。 在推理芯片的选用方面,相较于训练更多关注模型大小而言,推理更依赖于任务本质,以此决定所需芯片种类。当需要大量内容/图像 AI 生成式时,需要 GPU 进行推理计算(如英伟达主流的 T4 芯片);而对于较简单的推理过程(语音识别等),CPU 有时也会成为较好的推理引擎。

AI 服务器采用异构式架构,GPU 数量远高于普通服务器。随着多模态大模型 AI 服务器和普通服务器的主要区别在于:1)架构不同。AI 服务器采用 CPU+GPU/FPGA/ASIC 等异构式架构,而普通服务器一般是 CPU 架构;2)GPU 数量差异显著。比较 NVIDIA DGX A100 和浪潮英信服务器 NF5280M6 构造,NVIDIA DGX A100 包括 8 个 A100 GPU 和 2 个 AMD Rome CPU,而浪潮英信服务器 NF5280M6 仅配置 1-2 个英特尔第三代 Xeon 处理器。仅在 GPU 方面,一台 AI 服务器就能够带来约 10 万美元的价值量提升。

 在单芯片计算训练性能提升的基础上,服务器整体能效的提升同样受到关注

英伟达在此次 GTC 大会上推出 DGX H100 服务器,配有 8 个 H100 GPU 模组,配有 Transformer 引擎以支持处理类似 ChatGPT 的生成式训练模型,FP8 精度在大型语言模型相较上一代 A00 的训练和推理能力分别提升 9/30 倍。8 个 H100 模组通过 NVLINK Switch 相连,确保 GPU 之间的合作和通信。

我们认为,AI 服务器整体能效的提升驱动服务器各零部件升级需求,包括且不限于:1)AI 训练和推理对网络带宽提出更高要求,有望催生光模块速率进一步升级需求,其中 800G 光模块有望加速放量;2)PCB:AI 服务器用 PCB 一般是 20-28 层,传统服务器最多 16 层,每提升一层,PCB 价值量提升 1000 元左右,因此单台 AI 服务器的 PCB 价值量约为单台传统服务器的 3-4 倍;3)服务器半导体:GPU 方面,一台 AI 服务器就能够带来约 10 万美元的价值量提升,而大功率供电需求也驱动多相电源用量增长,进一步提升价值量。

服务器厂商有望借助“AI 算力革命”机遇再创高峰

工业富联作为提供服务器代工服务的龙头厂商,将深度受益于 AI 服务器市场扩容带来的机会,有望凭借高性能的 AI 服务器迎来营收增长。客户方面,相较于 2021 年,2022 年工业富联服务器营收中云服务商比重由 35%上升至 42%,来自云服务商客户的营收占比持续提升;产品方面,伴随着 AI 硬件市场迅速成长,公司相关产品 2022 年出货加倍,AI 服务器及 HPC 出货增长迅速,在 2022 年云服务商产品中占比增至约 20%。算力时代的开启为高效 AI 服务器提供了更广阔的发展空间,据公司 2022 年报,相关新产品将在 2023 年陆续研、发推出。 2022 年,工业富联云服务设备占总营收比例超过 40%,考虑到收入增速超平均的 CSP 业务占公司云设备业务比重上升,我们预测工业富联服务器 23/24/25 年的收入增幅为 8.6%/8.2%/8.2%,高于行业平均。

 环旭电子:服务器和高速交换机主机板供应商,协助客户推出边缘 AI 计算服务器

环旭为客户提供 ODM/JDM/EMS 伺服器、存储、NAS 和 SSD 产品以及制造服务,并提供 L10 系统设计服务,包括主机板、固件 BIOS 和 BMC、子卡(背板、附加卡等)、外壳和散热设计以及系统集成。Al 服务器方面,环旭提供设计制造(JDM)服务,协助品牌客户推出边缘 Al 计算服务器。根据环旭电子 2022 年业绩快报,云端及存储类业务营收达 69.89 亿元,同比增长 41.1%,占公司营收比例由 2021 年的 8.7%增长至 2022 年的 10.2%。我们认为,受益于 AI 带来的云端及边缘计算新需求,公司云端及存储类产品营收有望实现长期稳健增长。

PCB 厂商如何把握 AI 大模型机会

从下游应用来看,服务器/数据存储是 PCB 重要的下游应用领域之一。根据 Prismark 数据, 预估 2021 年服务器/数据存储占全球 PCB 产值的 10%,并预测其 2021-2026 年产值复合增速在 PCB 下游细分领域中排名第一。

 PCB 在服务器中主要用于:1)主板:服务器标配,且使用的 PCB 价值量最高;2)电源背板:单独设置或与主板集成;3)功能性配板:网卡、硬盘、内存、CPU 等。服务器用 PCB 的特点主要体现在高层数、高纵横比、高密度及高传输速率,以高多层板、封装基板为主。

AIGC 大模型的训练和推理需要大量的高性能计算算力支持,对 AI 服务器需求提升,同时将进一步加速服务器平台升级。整体来看,AI 大模型的发展对 PCB 的核心影响在于价值量提升,包括:1)服务器平台升级;2)AI 服务器对 PCB 的高要求。

服务器平台升级对 PCB 的影响关键在于总线标准升级

价#1:服务器平台升级对 PCB 的影响关键在于总线标准升级。

其价增逻辑在于,服务器平台升级→PCIe 总线标准升级→传输速率提升→走线密度增加→PCB 层数、材料等级、工艺 (如背钻)要求更高、更严格→PCB 价值量提升。

以 Intel 服务器平台为例,从 Purley 到 Whitley 再到即将量产的 Eagle Stream,对应的 PCIe 接口级别依次提升,分别为 PCIe 3.0、 4.0 和 5.0,PCB 层数从 12 层以下增加至 16 层以上,CCL 材料等级从 Mid Loss 升级至 Ultra Low Loss,对背钻等技术的管控更严格。根据产业调研,从 Whitley 到 Engle Stream, PCB 层数虽仅增加 2-4 层,但价格差不多翻倍。 以 ChatGPT 大模型引领的新一轮 AI 技术革命,将加速新一代服务器平台渗透率提升及下 一代服务器平台研发。从主流厂商规划来看,AMD 的 Zen4 平台和 Intel 的 Engle Stream 预计将在今年 Q3-Q4 开始上量,有望开启新一轮服务器 PCB 上行周期。

相比传统服务器,AI 服务器的 PCB 层数更高,单台 PCB 价值量大幅提升

价#2:相比传统服务器,AI 服务器的 PCB 层数更高,单台 PCB 价值量大幅提升。

AI 服务器与传统服务器的区别主要在于:1)硬件架构更复杂:多采用“CPU+其他加速卡”的异构形式,且目前 CPU+GPU 为主流;2)加速卡数量更多:一般配置四块及以上加速卡;3) 设计更独特:针对系统结构、散热、拓扑等专门设计;4)技术更专用:如服务器平台需要更大内存带宽,NVlink 提供更大的显存位宽带宽,TensorCore 提供更强的 AI 计算力等。

这些区别,尤其是 NVlink 这些特殊接口都使得 AI 服务器对 PCB 层数,通信速度都提出了更高要求,从而带动 AI 服务器的 PCB 价值量大幅提升。 根据产业调研, AI 服务器用 PCB 一般是 20-28 层,传统服务器最多 16 层,每提升一层, PCB 价值量提升 1000 元左右,因此单台 AI 服务器的 PCB 价值量相较传统服务器的 PCB 价值量将有明显提升。

 AI 服务器占全球服务器出货量比例将逐年提升,长期仍有量增空间

量:AI 服务器占全球服务器出货量比例将逐年提升,长期仍有量增空间。目前 AI 服务器占整体服务器出货量的比例并不高,但在智算算力需求的潜在预期下占比有望逐年提升,长期看对 PCB/CCL 有增量空间。据 TrendForce 数据,截至 2022 年为止,预估搭载 GPGPU 的 AI 服务器年出货量占整体服务器比重近 1%,预计在 ChatBot 相关应用加持下,2023 年出货量年增长可达 8%,另外预测其 2022-2026 年 CAGR 将达 10.8%,是全球整体服务器的复合增速的 2 倍多。因此,AI 服务器对 PCB 的影响,短期以价值量提升为主,长期仍有增量空间。

从竞争格局上看,大陆 PCB 厂商在全球服务器的竞争中已占据一席之地,但在 AI 服务器领域参与度不高。AI 大模型要求多张 GPU 通过 NVLINK 等特殊接口紧密链接形成一张超级 GPU,对高密度 PCB 板的层数、通信速度等提出更高要求。产业链公司包括生产通信用高密度 PCB 的深南电路、沪电,兴森科技等,以及生产高速 PCB 板用材料(M6)的生益科技。

高算力需求带动先进封装需求,ABF 载板有望充分受益

高算力需求带动先进封装需求,ABF 载板有望充分受益。以 AI 大模型为基础的 AIGC 新应用快速兴起,对算力的要求提高,服务器单机将搭载更多的 CPU/GPU 等芯片,解决多芯片间高速互连的先进封装成为关键。而 IC 载板作为先进封装的关键材料,有望进一步打开价值空间。尤其 ABF 载板,相较于 BT 载板具备层数多、面积大、线路密度高、线宽线距小等特点,更能承载 AI 高性能运算,在 CPU、GPU、FPGA、ASIC 等高运算性能 IC 放量预期下将更充分受益。据 Prismark 预测,ABF 载板为 IC 载板行业规模最大、增速最快的细分领域,预计全球 ABF 载板市场规模 2026 年将达到 121 亿美元,2021-2026 年 CAGR 为 11.5%。

 从竞争格局看,载板技术壁垒较高,长期以日韩台厂商为主,国内起步较晚。我们认为, 随着半导体产业链的国产化替代加速,国内厂商仍有较大上升空间。

半导体厂商如何把握 AI 大模型机会

电源芯片:AI 服务器多相电源用量提升,国产替代空间广阔

随着大数据、云计算、人工智能概念的兴起, CPU、GPU 对供电电压调节器(VRM/Vcore) 和负载点电源 (PoL)的效率和功率提出了严峻挑战。多相Buck电源包含控制器及DrMOS, 是一种多路交错并联的同步 Buck 拓扑,被公认为是此类应用场景的最佳解决方案。通过多相控制器和 DrMOS 的组合使用,将多个降压电路的输出并联使用,从而输出数百安培到数千安培的电流,适用于超大功率供电的需求。DrMOS 能给 CPU /GPU 电源设计带来三点优势:1)更稳定的电源;2)power 零部件减少;3)power 零件小型化与线路简洁化,满足下游产品轻薄短小但高效的需求。

根据 MPS 数据,服务器主板电源解决方案涉及 CPU/GPU 供电、存储 DDR 供电、POL 以及 EFuse 等产品,CPU 服务器及 GPU 服务器电源合计市场规模约 20 亿美金。具体来看 CPU、GPU 供电主要采用多相控制器+ DrMOS 模式。根据 MPS 官网,最初 CPU 采用 4 相,6 相,GPU 已经演进至采用 16 相供电,总市场规模约 6 亿美金。POL(负载点电源) 则是分布与各个功能单元电路前端的 DC/DC 稳压器,一台服务器上有十多颗 POL,对应市场规模约 6000 万美金。由于 DDR5 标准将直流供电功能从主板转移至内存条,因此每一个内存条将额外包含一组 DC-DC 直流变压电路。这种方式无疑会增加成本,总市场规模约 2.8 亿美金。电子保险丝 EFuse 用于为子电路或 PC 板提供局部快速响应保护, 对应全球市场规模约 6000 万美金。

 AI 服务器采用异构式架构,NVIDIA DGX A100 服务器 8 个 GPU+2 个 CPU 的配置远高于普通服务器 1~2 个 CPU 的配置。单颗 NVIDIA A100 至少需要 16 相电源解决方案,单台 AI 服务器所需多相电源数量呈几何式增长。IDC 预计,全球 AI 服务器市场规模稳健增长, 2021-2026E CAGR 预计达 21%。我们认为,AI 大模型将带动算力需求增长,催生对 AI 服务器的需求,带动多相电源市场需求增加。

国外厂商主导 DrMOS及多相控制器市场,国内空白亟待弥补。由于DrMOS技术难点较多:

1)大功率大电流的工艺——BCD 工艺;2)设计;3)封装,DrMOS 在国内尚属空白,国产替代亟待推进。DrMOS 主要厂商为 MPS、ADI、TI 和安森美等,目前下游厂商几乎只采用海外 DrMOS 产品,如微星 B650 迫击炮采用 MPS 产品, 2206/MP87670 单相提供额定 80A 电流。大陆厂商仅杰华特具有 DrMOS 量产能力,单芯片已经做到 70 安培,性能可与国际一流厂商相比,有望弥补国内空白,目前公司 DrMOS 产品在服务器、笔电领域均实现批量出货。公司多相控制器产品目前处于送样阶段,未来会与 DrMOS 配套出货。

计算芯片/存储控制芯片:增加 AI 加速器芯片,提升计算效率

芯片端:增加 GPU 等 AI 加速芯片提升计算效率

AI 服务器与普通服务器相比,AI 服务器的芯片通常被优化和设计用于执行机器学习和深度学习算法,常采用异构计算的方式。具体来看 1)CPU:AI 服务器和普通服务器都使用 CPU。但 AI 服务器通常会使用性能更高的 CPU, 以便更快地处理复杂的计算任务。

2)GPU:GPU 是 AI 服务器的核心组成部分,在矩阵运算和深度学习模型训练方面具有更高的效率。相比之下,普通服务器通常只使用 CPU 而不使用 GPU。以浪潮信息为例,我们看到 AI/HPC 服务器分别配备 8 颗 A800 GPU 以及 4 颗 V100/ P100 等英伟达 GPU。

3)FPGA/ASIC:是专门为特定任务设计的芯片,与通用 CPU 或 GPU 相比,这两类芯片可以更快地执行特定的计算任务。我们看到 HPC 服务器相比通用/AI 服务器多配备 2 颗赛灵思 FPGA,整体服务器的单机台芯片用量预计随着 AI 服务器的用量而显著提升。

 寒武纪训练卡:思元 370 推训一体实现硬件升级,同英伟达数据中心产品 T4/A10 直面竞争,思元 590 加入浮点计算实测性能优异。目前寒武纪核心发力云端,其核心产品包括:1) 思元 370 于 2021 年推出,是寒武纪第三代云端产品采用 7nm 制程工艺,是寒武纪首款采用 Chiplet(芯粒)技术的人工智能芯片。思元 370 智能芯片最大算力高达256TOPS(INT8), 是寒武纪第二代云端推理产品思元270算力的2倍,产品形态包括3款加速卡:MLU370-S4、 MLU370-X4、MLU370-X8,已与国内主流互联网厂商开展深入的应用适配。2)思元 590 在上一代思元 290 的基础上增加浮点计算能力,采用 MLUarch05 全新架构,实测训练性能较在售旗舰产品有了大幅提升,它提供了更大的内存容量和更高的内存带宽,其 IO 和片间互联接口也较上代实现大幅升级。

海光 DCU:公司 DCU 产品主要面向智能计算以及人工智能市场,采用高性能计算市场目前主流的 GPGPU 架构。当前 DCU 产品综合性能约为英伟达 A100 产品的 70%-80%,与国内同行相比,公司的优势在于:①全精度计算:公司产品覆盖 64 位、32 位、16 位以及整型 8 位训练/推理;②兼容主流生态:兼容“类 CUDA”环境,能够较好地适配、适应国际主流商业计算软件和人工智能软件,并通过更好的性价比实现国产替代。海光 DCU 集成片上高带宽内存芯片,可以在大规模数据计算过程中提供优异的数据处理能力,使海光 DCU 可以广泛应用于不同的场景。目前该产品可广泛应用于大数据处理、人工智能、商业计算等计算密集类应用领域,我们预计将在超算中心首先得到应用,长期来看将凭借当前与互联网公司、AI 厂商、先进计算中心以及智算中心的深度合作关系,实现从政府项目到行业的破圈。

通信设备厂商如何把握 AI 大模型机会

光模块:数据中心市场空间广阔,2023 年有望迎 800G 放量元年

全球光模块市场稳健增长,数据中心光模块市场空间广阔。根据 LightCounting 的统计及 预测,2019~2021 年,全球光模块市场规模从 89 亿美元增长到 114 亿美元,预测 2025 年全球光模块市场将达到 171 亿美元,对应 2022~2025 年 CAGR 为 10.65%。全球光模块市场结构方面,CWDM/DWDM 光模块和用于数据中心的以太网光模块占比较高,二者出货金额合计占比从 2019 年的 74%提升至 2021 年的 79%,其中光模块市场规模为 47亿美元, 占比为 41%,为光模块中最大细分品类市场。

 800G 有望迎接放量元年。随着云计算、AI、元宇宙等技术产业的快速发展和传统产业数字化的转型,全球范围内数据快速的增长对网络带宽提出新的要求,有望催生光模块速率升级需求。LightCounting 指出,AI 应用等带来的数据流量的增长,超预期的数据中心带宽需求以及光模块厂商技术的迭代都是推动 800G 应用的动力。根据 LightCounting 于 2022 年 4 月发布的预测,2022~2024 年全球 800G 以太网光模块出货量有望达 11、39、119 万只。 我们认为随着 800G 光模块有望迎来放量元年,国内头部光模块以及上游光器件、光芯片厂商有望迎发展机遇。

国内光模块厂商彰显全球竞争力。根据 Lightcounting 于 2022 年 5 月发布的统计数据,2021 年全球前十大光模块厂商,中国厂商占据六席,分别为旭创(与 II-VI 并列第一)、华为海思 (第三)、海信宽带(第五)、光迅科技(第六)、华工正源(第八)及新易盛(第九);相 比于 2010 年全球前十大厂商主要为海外厂商,国内仅 WTD(武汉电信器件有限公司,2012 年与光迅科技合并)一家公司入围,体现出十年以来国产光模块厂商竞争实力及市场地位的快速提升。

以太网交换机芯片:交换机核心部件,国产替代空间广阔

以太网交换芯片是交换机核心部件。以太网交换机为用于网络信息交换的网络设备,是实现各种类型网络终端互联互通的关键设备。交换设备由以太网交换芯片、CPU、PHY、PCB、 接口/端口子系统等组成,其中以太网交换芯片为最核心部件。交换芯片是用于交换处理大量数据及报文转发的专用芯片,是针对网络应用优化的专用集成电路(ASIC)。

 全球以太网交换芯片市场增长稳健,国内增速领先。根据盛科通信招股书和灼识咨询预测, 2020 年全球以太网交换芯片市场规模为 368 亿元,同比下降 4.3%,预计 2020-2025E 年均复合增速为 3.4%,2025 年全球市场规模为 434 亿元。2020 年我国交换芯片市场规模为 90 亿元,同比增长 25.2%,灼识咨询预测 2025 年我国市场规模可达 171.4 亿元,对应 2021E-2025E 复合增速为 13.8%,显著领先全球增速。根据信通院,国内市场由于数据中心等新基建领域政策环境向好(如东数西算、算力网络建设等政策),而交换机作为搭建数据中心架构的骨骼,用以保证数据传输稳定可靠,将随之大量提振需求。

“高速化”: 100G 及以上端口速率将成主流,应对下一代数据中心带宽需求。端口速率是 以太网芯片的每个端口每秒钟传输的最大 bit 数量,是衡量芯片性能的重要指标。近年数字经济的快速发展,推动了云计算、人工智能、大数据等技术产业的快速发展和传统产业数字化的转型,全球范围内数据快速的增长对网络带宽提出新的要求。根据信通院《数据中心产业图谱研究报告》预测,100G、400G 及以上的市场需求将逐渐增多,预计 400G 产品最终会占据优势地位,中长期来看,预计 400G 数据中心交换机 2022 年末有望成为营收主力,2023 年开始 800G 交换机有望得到快速发展。根据灼识咨询预测,100G 以上占比将从 2020 年的 24.1%提升至 2025 年的 44.2%。

国内商用交换芯片行业集中度高,海外巨头垄断,盛科通信为头部国产商。以太网交换芯片领域由少数参与者掌握大部分份额,2020 年中国商用以太网交换芯片市场中,博通、美满和瑞昱分别以 61.7%、20.0%和 16.1%分列前三,CR3 达到 97.8%,博通的产品在超大规模的云数据中心、HPC 集群与企业网络市场上占据较高份额,为以太网交换芯片的全球龙头,是盛科发展方向借鉴的对象。由于交换芯片具备较高技术、客户、应用和资金壁垒, 行业整体国产化程度较低,国内参与厂商较少。盛科通信在中国商用以太网交换芯片市场中,以销售额计占据 1.6%的份额,排名第四,在国产厂商中排名第一。此外,2020 年中国万兆以上商用以太网交换芯片市场中,盛科通信市占率达 2.3%。

 



800G 有望迎接放量元年。随着云计算、AI、元宇宙等技术产业的快速发展和传统产业数字化的转型,全球范围内数据快速的增长对网络带宽提出新的要求,有望催生光模块速率升级需求。LightCounting 指出,AI 应用等带来的数据流量的增长,超预期的数据中心带宽需求以及光模块厂商技术的迭代都是推动 800G 应用的动力。根据 LightCounting 于 2022 年 4 月发布的预测,2022~2024 年全球 800G 以太网光模块出货量有望达 11、39、119 万只。 我们认为随着 800G 光模块有望迎来放量元年,国内头部光模块以及上游光器件、光芯片厂商有望迎发展机遇。

国内光模块厂商彰显全球竞争力。根据 Lightcounting 于 2022 年 5 月发布的统计数据,2021 年全球前十大光模块厂商,中国厂商占据六席,分别为旭创(与 II-VI 并列第一)、华为海思 (第三)、海信宽带(第五)、光迅科技(第六)、华工正源(第八)及新易盛(第九);相 比于 2010 年全球前十大厂商主要为海外厂商,国内仅 WTD(武汉电信器件有限公司,2012 年与光迅科技合并)一家公司入围,体现出十年以来国产光模块厂商竞争实力及市场地位的快速提升。

以太网交换机芯片:交换机核心部件,国产替代空间广阔

以太网交换芯片是交换机核心部件。以太网交换机为用于网络信息交换的网络设备,是实现各种类型网络终端互联互通的关键设备。交换设备由以太网交换芯片、CPU、PHY、PCB、 接口/端口子系统等组成,其中以太网交换芯片为最核心部件。交换芯片是用于交换处理大量数据及报文转发的专用芯片,是针对网络应用优化的专用集成电路(ASIC)



作者:郭伟松_鑫鑫投资
链接:https://xueqiu.com/2524803655/245771242
来源:雪球
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
风险提示:本文所提到的观点仅代表个人的意见,所涉及标的不作推荐,据此买卖,风险自负。

作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
工业富联
S
沪电股份
S
环旭电子
S
中际旭创
S
长飞光纤
工分
9.46
转发
收藏
投诉
复制链接
分享到微信
有用 8
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(3)
只看楼主
热度排序
最新发布
最新互动
  • 只看TA
    2023-04-03 16:16
    感谢分享
    0
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-04-01 08:38
    增量
    0
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-03-29 22:12
    感谢分享辛苦了
    0
    0
    打赏
    回复
    投诉
  • 1
前往