登录注册
重视AI+液冷布局机会运营商力推液冷,中兴液冷技术领先,有望核心受益
韭尾狐
下海干活
2023-06-13 20:22:49
事件:三大运营商联合液冷产业链代表公司共同发布《电信运营商液冷技术白皮书》

点评:
三大运营商如何构建液冷生态?
液冷技术现阶段需求驱动“核心是PUE”,未来规模应用“关键是TCO”。运营商联合产业链上游零部件及液冷设备企业,推进液冷机柜与服务器解耦,制定标准化接口,便于后续灵活部署、多方适配、降低成本。我们认为,解耦交付+标准化接口将促进行业竞争,全链条布局的厂商增量需求更大。

未来发展前景规划?
白皮书指出:2023年开展技术验证,引领形成解耦标准;2024年开展规模试验,新建项目10%规模试点液冷技术,推进液冷机柜与服务器解耦,推进产业生态成熟,降低TCO;至2025年,在50%以上的项目开展规模应用。

投资建议:液冷趋势确定,是0-1的增量市场,芯片功耗与机柜功率密度提升,叠加能耗要求,必然会带来散热技术由风冷向液冷的升级,关注在技术+产能领先布局的厂商

重点推荐【中兴通讯】(算网龙头推出ICT液冷一体化方案)、【曙光数创】(浸没式冷却专家,配套超算建设)


近日,由深圳市汽车电子行业协会主办的“2022年度汽车电子科学技术奖颁奖盛典”获奖名单日前公布。中兴通讯凭借在芯片、5G、终端等领域的底层基础能力,推出的国产车规级4G通信模组产品ZM8200产品,荣获“卓越创新产品奖”。

  ZM8200是中兴通讯开发的一款车规级LTE CAT4通信模组系列,基于中兴通讯全栈自研车规级4G Modem芯片平台,最高可支持150Mbps下行速率和50Mbps上行速率,并完全向后兼容现有3G和2G网络。

  在产品性能方面,ZM8200各项指标已达行业主流水平,满足所有前装车载4G车联网需求。在品质方面,ZM8200模组设计均符合车规级品质要求,可为汽车行业客户提供安全可靠的车载网联解决方案,可广泛应用于车载网联及配套网络产品上(T-Box、OBU、RSU、座舱等)。

  随着汽车前装搭载车联网功能渗透率的进一步提升,未来市场对车载通信模组的需求还会持续增强。新能源汽车的发展过程中除持续的技术创新外,“降本增效”也备受各大车厂重视。中兴通讯具备车规级模组全栈自研能力,将全面助力中国汽车产业在车联网领域达成“降本增效”的目标。(朱先妮)

运营商力推液冷,中兴液冷技术领先,有望核心受益
  中兴通讯(000063)
  事件:6月5日,在31届中国国际信息通信展览会上,中国移动、中国电信、中国联通三家基础电信运营企业共同面向业界发布了《电信运营商液冷技术白皮书》。
  点评:
  运营商力推液冷应用,液冷渗透率有望提升,中兴通讯有望核心受益为推进电信运营商液冷技术应用,《电信运营商液冷技术白皮书》提出“三年景愿”,即2023年开展液冷技术验证;2024年开展规模测试,新建数据中心项目10%规模试点应用液冷技术,推进产业生态成熟;2025年及以后开展规模应用,50%以上数据中心项目应用液冷技术。
  中兴通讯是运营商算力产业链核心合作伙伴,公司连续2年取得国内运营商服务器市场份额第一,2022年运营商市场X86服务器以17.5万台的发货量位居首位,公司已提前深度布局液冷技术:
  1)IDC机房侧:公司已完成单板级、插箱级、机柜级、机房级四个不同维度的液冷技术攻关,于23年Q1推出全液冷系统解决方案,实现DC液冷数据中心机房、IT液冷服务器设备、CT液冷路由交换设备一体化集成开发、交付,整机能耗预计可降低约5%,液冷数据中心PUE可降至1.2以下;
  2)服务器侧:全新G5系列服务器支持不同的冷板式液冷方案,如CPU液冷、CPU+内存条液冷,以及CPU+内存条散热+VR液冷,冷板液冷占比最高可达80%以上,充分满足不同制冷需求,浸没式液冷方案还在研发当中;3)液冷路由器:中兴通讯与中国电信研究院和中国电信云计算公司联合建设T8000核心路由器的冷板式液冷试验局。试验局实现核心芯片运行温度降低10℃,理论故障率约减少一半;大容量核心机房综合PUE≤1.2,解决了高功率路由器空调散热难的问题。
  公司作为全球领先的综合性通信制造业公司和全球通信解决方案提供商,致力于将液冷技术应用到通信领域,我们认为公司作为运营商算力产业链核心合作伙伴,在未来运营商液冷数据中心项目的建设中有望率先受益。
  运营商服务器市场:服务器产品实力强劲,在多个运营商项目中排名均位列第一我们认为2023年数字经济建设是国家发展主线之一,算网基础设施建设或将逐步加快,2023年三大运营商在算力方面的资本开支均保持20%以上增速,中兴通讯有望核心受益。
  1)公司在中国电信2022-2023年服务器集中采购中实现全标包入围,总份额第一,其中标包1、4、6中排名第一,标包2、3、7中位列第二。
  2)公司在中国联通2022云服务器集中采购中总份额第一,其中标包1排名第一;在2022-2024年中国联通国际服务器集中采购标段1中排名第二;在2022年中国联通人工智能服务器集中采购中排名第三;在2022年中国联通通用服务器集采中总份额第二。
  3)公司在中国移动2019-2020、2020PC服务器集采、2021-2022PC服务器集采(网络云标包)中均排名第一;在中国移动2021-2022PC服务器集采(第一批次)中总份额位列第二;在中国移动2021-2022PC服务器集采(第二批次,1-6标包)中总份额排名第三;在中国移动2022政企客户算力服务器集采中排名第二;在中国移动集中网络云资源池第三期工程计算型服务器采购中排名第一。
  AI服务器:产品性能强劲,成为“文心一言”可靠算力底座3月16日,据中兴通讯微信公众号,中兴通讯和百度联合宣布,中兴通讯服务器将支持百度“文心一言”,为AI产品应用提供更加强劲的算力支撑,助力AI产业化应用和生态繁荣。“文心一言”是百度基于文心大模型技术推出的生成式AI产品,具备跨模态、跨语言的深度语义理解与生成能力,“文心一言”将通过百度智能云对外提供服务,为产业带来AI普惠。在服务器产品方面,公司服务器产品全面满足百度定制化要求,针对百度智能云AI、深度学习的需求,中兴通讯服务器产品采用高密度、模块化、精细化设计,具有高性能、高可靠、易扩展、易管理等优势,在AI、云计算、大数据、NFV等领域具有出色的表现,适用于百度大脑、飞桨深度学习平台。目前,公司服务器产品已规模应用于百度智能云,充分满足百度智能云不同业务场景差异化配置需求、资源分配和上云服务。我们认为此次合作体现了公司在提供AI服务器解决方案的强大实力,公司服务器产品可充分满足AI模型所需的蓬勃算力需求和庞大的数据吞吐量需求。未来,随着国产AI模型持续发展,AI下游应用的落地,模型推理算力需求有望带动公司AI服务器持续放量。
  截至目前,公司最新的R6500G5GPU服务器可支持20张单宽半长GPU加速卡,具备高密度算力、灵活扩展、异构算力、海量存储、稳定可靠等特性,双路最大支持120核,AI性能提升10倍,为数字经济发展提供强大算力支持。在中兴通讯2022年年报解读交流会上,公司表示年底有望推出支持Chatgpt的GPU服务器以及高性能交换机,2023年运营商数据中心交换机营收有望倍增,同时公司是全球领先的ICT解决方案提供商,研发实力强劲,我们看好公司强劲技术研发实力在AI等新应用领域的持续价值变现。
  服务器方面:市场份额快速提升,保持较高增速据IDC数据,2022年中国服务器市场规模为273.4亿美元(1888.37亿人民币),同比增长9.1%,中兴通讯2022年服务器收入已达100.08亿元;根据中兴通讯官网,2022年,中兴通讯服务器及存储营业收入百亿元,同比增长近80%;据IDC2022年第四季度中国服务器市场跟踪报告,Top8服务器厂商中,浪潮、戴尔、联想份额均出现下滑,超聚变和中兴则取得明显增长,其中中兴通讯市场份额从3.1%提升至5.3%,位居国内第五。公司在今年新产品发布会上表示将快步实现服务器及储存产品国内前三(按照2022年份额超10%以上)、全球前五的经营愿景。
  谷歌、Meta、百度等深度学习库均已接入中兴Adlik架构,长期需求有望持续释放2022年12月28日,公司联合英特尔共同发布《英特尔联手中兴优化深度学习模型推理,实现降本增效》白皮书,本白皮书深入介绍了中兴通讯主导的开源项目Adlik如何与英特尔OpenVINO工具结合。为解决购买专用GPU硬件会大幅增加部署成本,而且应用范围有限,灵活度较低的问题,中兴通讯通过硬件创新和软件层面的深度优化,在部分场景中,如果能够直接使用CPU来进行推理,将有助于降低成本,提升灵活度,白皮书指出通过中兴Adlik可以对AI模型进行自动剪枝、蒸馏,实现模型大小的优化,再通过OpenVINO™的量化工具和推理引擎,对模型实现INT8量化,从而实现模型压缩,以降低模型推理所需的计算资源和内存带宽,提高模型的推理性能。通过使用中兴Adlik+第三代英特尔®至强®可扩展处理器+OpenVINO™工具套件的组合,可使已完成训练的高精度AI模型转换成参数较小、结构简单、精度基本不下降的AI小模型,其性能与大模型接近,模型数据吞吐量更高,从而实现在不增加GPU硬件,大幅减少部署成本的情况下,直接使用CPU服务器即可满足模型的日常推理需求,成功实现降本增效,并使得模型更易部署在算力有限的场景下,比如自动驾驶车端场景。我们认为此解决方案能够实现AI模型推理的降本增效,适用各垂直领域的AI小模型有望加速落地,充分满足不同场景需求。
  Adlik是用于将深度学习模型从训练完成到部署到特定硬件,提供应用服务的端到端工具链,其应用目的是为了将模型从研发产品快速部署到生产应用环境。Adlik可以和多种推理引擎协作,支持多款硬件,提供统一对外推理接口,并提供多种灵活的部署方案。目前谷歌TensorFLOW,MetaPyTorch和百度的PP飞桨深度学习库都已能够接入Adlik架构。随着MetaAISAM开源图像分割模型的问世,计算机视觉产业或将加速发展。由于SAM中的图像编码器功能必须在PyTorch中实现,并需要GPU才能进行高效推理,我们认为计算机视觉产业的发展有望进一步带动对Meta深度学习库PyTorch以及其他AI互联网企业深度学习库的需求,公司adlik软硬整体架构的需求有望提升。
  测试,在ImageNetval验证数据集上,ResNet50剪枝模型经过蒸馏后精度略有提升,剪枝模型的吞吐量比原始模型提升了2.74倍。INT8量化后的模型的吞吐量比未量化模型提升了2.96倍。经过Adlik剪枝蒸馏和INT8量化等方法优化后的ResNet50模型,在精度无损失的情况下,吞吐量比原始模型提升了13.82倍,效果显著。目标检测YOLOv5m模型优化测试,在COCO2017验证集上,YOLOv5m
  经剪枝蒸馏和INT8量化后的模型,精度损失在1%以内。优化后的YOLOv5m模型吞吐量比原始模型提升了3.39倍。
  盈利预测与投资评级
  公司具有软件、硬件、芯片、操作系统等基础能力,将基础能力外溢赋能更多数字经济应用,有望打开公司第二成长曲线。我们预计公司2023-2025年归母净利润分别为101.90亿元、123.35亿元、149.90亿元,对应PE为16.77倍、13.85倍、11.40倍,维持“买入”评级。

作者利益披露:原创,不作为证券推荐或投资建议,截至发文时,作者不持有相关标的。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
科大讯飞
S
中兴通讯
工分
1.91
转发
收藏
投诉
复制链接
分享到微信
有用 1
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
暂无数据