登录注册
舍我其谁CPO--数据算力和人工智能的双重先行暴击者--有望迎倍数级复合增长
無我
买买买的公社达人
2023-02-07 09:32:45

      继蒸汽、电力、计算机为代表的前三次工业革命以后,以人工智能为代表的第四次工业革命已然到来。


      开年以来,以ChatGPT的持续火热,引爆海内外市场AIGC(AI创作内容)概念股。美股市场英伟达市值重回5000亿美元大关,A股市场汉王科技连续6个交易日“一字”涨停引领风潮


     对于ChatGPT热潮带来的投资机遇,机构普遍认为,2023年有望成为为AIGC发展大年,ChatGPT将为计算机基础设施、算力等上游技术、代码机器人等下游带来巨大需求。


                           市场继续沿着人工智能主线思考:

                      火出天际的AIGC之后,产业链还有哪里最值得关注?


最近国盛的一篇研报、引起了市场注意;AIGC后,CPO有望成为高算力下解决方案


附链接:国盛通信 | AIGC后,CPO有望成为高算力下解决方案_手机新浪网 


里面提到:


基于AI的高算力场景,基础设施包括硬件设备相关最明显的一个变化是算力大幅增长后,相关能耗和成本也会大幅提升。


算力的成倍甚至是指数级增长下,能耗和成本的当前方案可能无法满足(速率升级或堆叠的方式)没有商业性和经济性。所以整个设备一大变化就是低功耗低成本高能效解决方案。


而ChatGPT更加速了AI的进程,对于功耗和成本的要求来得更快更猛烈。


高算力场景下,交换机/光模块等设备和器件,基于功耗和成本等考虑,必然会发生结构性的变化。通过新技术、CPO(光电共封装)、硅光、耦合、液冷散热等共同达到【高算力但非高功耗】的目标。



下面我们来具体捋一捋对人工智能和数据算力举足轻重的CPO:



去年,国家发布了“东数西算”战略,吸引了全市场的关注。


所谓“东数西算”,就是数据中心的任务分工调整。我们将东部沿海地区的部分算力需求,转移到西部地区的数据中心完成。


西部地区能源资源比较充沛,自然温度较低,可以大幅减少电费以及碳排放。


我们知道,数据中心是算力的载体,现阶段我们不管是诺大的数字经济还是人工智能(ChatGPT,都离不开算力,都离不开数据中心。


今天盘中出了个北京数据特区新闻文件;投资者在无视市场大跌的情况下,铜牛信息,博睿数据拉板20CM,宁波建工,真真科技,南兴股份等一批概念股强势封板,足见其追捧与疯狂!


但是,不管是人工智能(ChatGPT)还是数据算力


数据中心的耗电问题,却无法忽视!无法忽视!无法忽视!


   数据显示,2021年全国数据中心总用电量为2166亿千瓦时,占全国总用电量的2.6%,相当于2个三峡水电站的年发电量,1.8个北京地区的总用电量。


    如此恐怖的耗电量,对我们实现2030硬性指标的“双碳”目标造成了很大压力。


    于是乎,从国家到产业层面都在加紧升级换代,究竟如何才能将数据中心的能耗降下来。



大家应该都知道,数据中心有一个重要的参数指标,那就是PUE(Power Usage Effectiveness,电能使用效率)


PUE=数据中心总能耗/IT设备能耗。其中数据中心总能耗,包括IT设备能耗,以及制冷、配电等其它系统的能耗。


这个东西不是说说而已:自去年11月已经出台了强制性执行国标:

 


   最新的国标要求到2025年,新建大型、超大型数据中心电能利用效率(PUE)必须干到1.3以下。

     


所以,捣鼓数据中心的节能减排,达到强制性国标之下;出路只有两点:


1、减少主设备的功耗


2、减少散热和照明方面的功耗(主要是散热)



     

先说主设备的功耗挑战


    服务器是数据中心最主要的设备,它上面承载了各种业务服务,有CPU、内存等硬件,可以输出算力。


    但实际上,主设备还包括一类重要的设备-----网络设备,也就是交换机、路由器、防火墙等。


    目前,AI/ML(人工智能/机器学习)乃至ChatGPT的加速落地,再加上千行百业物联网的高速发展,使得数据中心的业务压力越来越大。


比如说最近火热的ChatGPT,只用两个月干到了一个亿的月活用户量,那两个亿,三个亿,10个亿,30个亿的用户量要怎么搞???


    这个压力不仅体现在算力需求上,也体现在网络流量上。数据中心的网络接入带宽标准,从过去的10G、40G,一路提升到现在100G、200G甚至400G。


网络设备为了满足流量增长的需求,自身也就需要不断迭代升级。于是乎,更强劲的交换芯片,还有更高速率的光模块,统统开始用上。


以行业领先者主营光模块的新易盛(300502)为例,当前不仅400G的已在数据中心广泛使用,更是已经干到800G可以量吹产出货了。


 


 

 



    但值得一提的是,虽然网络设备的总体功耗在持续提升,但是,单Bit(比特)的功耗是持续降低的。也就是说,能效越来越高。


再看光模块


光模块在光通信领域,拥有重要的地位,直接决定了网络通信的带宽。


早在2007年的时候,一个万兆(10Gbps)的光模块,功率才1W左右。


随着40G、100G到现在的400G,800G甚至以后的1.6T光模块,功耗提升速度就像坐上了火箭,一路飙升,直逼30W。大家可要知道,一个交换机可不止一个光模块,满载的话,往往就有几十个光模块(假如48个,就是48×30=1440 W)。



这里需要用到多少新易盛(300502)的光模块?

 


一般来说,光模块的功耗大约占整机功耗的40%以上。这就意味着,整机的功耗极大可能会超过3000 W。


一个数据中心,又不止一交换机。这背后的功耗,想想有多可怕。


除了交换芯片和光模块之外,网络设备还有一个大家可能不太熟悉的“耗电大户”,那就是——SerDes


在网络设备中,它是一个重要器件,主要负责连接光模块和网络交换芯片。


 


简单来说,就是将交换芯片出来的并行数据,转换成串行数据进行传输。然后,在接收端,又将串行数据转换成并行数据。


前面提到,网络交换芯片的能力在不断提升。因此,SerDes的速率也必须随之提升,以便满足数据传输的要求。


SerDes的速率提升,自然就带动了功耗的增加。


在102.4Tbps时代,SerDes速率需要达到224G,芯片SerDes(ASIC SerDes)功耗预计会达到300W。


需要注意的是,SerDes的速率和传输距离,会受到PCB材料工艺的影响,并不能无限增加。换句话说,当SerDes速率增加、功耗增加时,PCB铜箔能力不足,不能让信号传播得更远。只有缩短传输距离,才能保证传输效果。


这有点像扔铅球比赛,当铅球越重(SerDes速率越高),你能扔的距离就越短。

 

具体来说,SerDes速率达到224G时,最多只能支持5~6英寸的传输距离。


这意味着,在SerDes没有技术突破的前提下,网络交换芯片和光模块之间的距离,必须缩短。


综上所述,交换芯片、光模块、SerDes,是网络设备的三座“功耗”大山。


根据设备厂商的数据显示,过去的12年时间,数据中心的网络交换带宽提升了80倍,背后的代价就是:交换芯片功耗提升约8倍,光模块功耗提升26倍,交换芯片SerDes功耗提升25倍。

 

在此情况下,网络设备在数据中心内的功耗占比,随之不断攀升。


 



接下来,再看看散热。


事实上,相比对网络设备的功耗提升,散热的功耗才是真正的大头


根据数据统计,交换设备在典型数据中心总能耗中的占比,仅仅只有4%左右,还不到服务器的1/10。


但是散热呢?根据CCID数据统计,2019年中国数据中心能耗中,约有43%是用于IT设备的散热,基本与45%的IT设备自身的能耗持平。


即便是现在国家对PUE提出了严格要求,按照三级能效来算,散热也占了将近40%。



传统的散热方式(风冷/空调制冷),已经不能满足当前高密数据中心的业务发展需求。于是,我们引入了液冷技术


液冷,是使用液体作为冷媒,为发热部件散热的一种新技术。引入液冷,可以降低数据中心能近90%的散热能耗。数据中心整体能耗,则可下降近36%。


 


这个节能效果,可以说是非常给力了,直接省电三分之一。


除了散热更强更省电之外,液冷在噪音、选址(不受环境气候影响)、建设成本(可以让机柜采用高密度布局,减少机房占地面积)等方面也有显著优势。


所以,现在几乎所有的数据中心,都在采用液冷。有的液冷数据中心,甚至可以将PUE干到1.1左右,接近1的极限值。


那液冷,是不是把整个设备全部浸没在液体里呢?


液冷的方案,一般包括两种,分别是浸没式冷板式


浸没式,也叫直接式,是将主设备里发热量大的元器件,全部浸入冷却液中,进行散热。


冷板式,也称间接式,是将主要散热部件与一块金属板贴合,然后金属板里有冷媒液体流动,把热量带走。现在很多DIY组装电脑,就是冷板式。


服务器采用液冷,已经是非常成熟的技术。那么,既然要上液冷,当然是服务器和网络设备一起上,会更好啊,不然还要搞两套体系。


问题来了,咱们的网络设备,能上液冷吗?



说到这里,市场期盼的CPO可以闪亮登场了


CPO,英文全称Co-packaged optics,共封装光学。


简单说,CPO是将网络交换芯片和光引擎(光模块)进行“封装”的技术。


我们传统的连接方式,叫做Pluggable(可插拔)。光引擎是可插拔的光模块。光纤过来以后,插在光模块上,然后通过SerDes通道,送到网络交换芯片(AISC)。

 



CPO呢,是将交换芯片和光引擎共同装配在同一个Socketed(插槽)上,形成芯片和模组的共封装。


从世界巨头抱团式布局产业化的进程看,CPO是终极形态。


早在2020年,包括亚马逊AWS、微软、Meta、谷歌等云计算巨头,思科、博通、Marvell、IBM、英特尔、英伟达、AMD、台积电、格芯、Ranovus等网络设备龙头及芯片龙头,均在前瞻性地布局CPO相关技术及产品,并已经推进CPO标准化工作


 今年是CPO元年,行业增长率有多少呢?


LightCounting在在报告中提高了英伟达关于AI集群对CPO(Co-Packaged Optics)技术的展望:AI对网络速率的需求是目前的10倍以上,在这一背景下,CPO有望将现有可插拔光模块架构的功耗降低50%,在AI和HPC场景下的竞争优势更加明显。根据LightCounting预测,按照端口数量统计, CPO的发货量将从2023年的5万件增加到2027年的450万件,以800G和1.6T CPO为主。

 

这是一个怎么样的概念呢?CPO的发货量将从2023年的5万件增加到2027年的450万件,以800G和1.6T CPO为主。五年复合增长率呈倍数几何级暴增!




CPO具有的功耗低、带宽大的特点,使其在数据中心、AI计算等场景得到广泛应用。




CPO技术,是数据中心网络设备毫无疑问的发展方向。在目前的数字化浪潮下,我们对算力和网络通信能力的追求是无止境的。在追求性能的同时,我们更要执行国标努力平衡功耗




简单总结下逻辑(附受益公司):


CPO是数字经济,数据中心和人工智能


CPO是人工智能(ChatGPT和国家大力倡导的数字经济,数据中心推行的最先行受益者。也是产业链数据算力升级配套的必须品,其具有强制性。


今年是CPO元年,从巨头预测的产业数据看,未来五年有望从5万到450万的出货量复合倍数几何式增长。


CPO目前仍有高壁垒,在其闭环中,受益公司如下:


新易盛(300502):光膜块400G已广泛应用在各大数据中心,更高端的800G已实现产业化出货走在行业引领前端,光模块已突破低功耗极限,同时布局了光电共同封装(CPO)技术,双重受益,行业需求增量大。



锐捷网络(301165):CPO交换机方面走在行业最前端,竞争优势明显,有一定的护城河,该领域的国货之光。


详细可链接:

拥抱开放网络,锐捷首款25.6T CPO交换机在美国2022 OCP峰会大放异彩 - 讯石光通讯网-做光通讯行业的充电站! 


中际旭创(300308):公司的400G系列相干产品已逐步在国内主流设备商和互联网云厂商中得到了应用,800G的解决方案也有,主要优势是部分光膜快可用自家研制的硅光芯片。


联特科技(301205):公司目前主要研发基于硅光的800G光模块,以及用于CPO所需的高速光连接技术,激光器技术和芯片级光电混装技术。


光迅科技(002281):公司在光电共封装(CPO)领域有技术储备,公司800G光模块已具备批量生产的能力,针对特定客户已进行小批量的交付。


原创不易:如觉有用,发财手请支持点赞,转发~共勉~

声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
新易盛
S
锐捷网络
S
联特科技
S
中际旭创
S
光迅科技
工分
90.52
转发
收藏
投诉
复制链接
分享到微信
有用 98
打赏作者
无用
真知无价,用钱说话
7个人打赏
同时转发
评论(52)
只看楼主
热度排序
最新发布
最新互动
  • 只看TA
    2023-02-07 12:55
    烽火通信央企一定要重视
    4
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-02-07 12:00
    补充一个,索尔思光电是一家全球领先、提供创新且可靠的光通信技术和产品的供应商,集激光器及检测器芯片制造、光组件生产、光模块设计和组装测试于一体。其解决方案和产品被广泛应用于数据中心、城域网和接入网的通讯与数据连接。华西股份参股
    3
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-02-07 19:45
    谢谢
    1
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-02-07 09:59
    分享的都大涨,感谢
    0
    0
    打赏
    回复
    投诉
    于2023-02-07 23:40:48更新
    查看1条回复
  • 小瞿的投资笔记
    关灯吃面的老司机
    只看TA
    2023-06-19 00:06
    谢谢分享
    0
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-02-10 09:27
    感谢老师分享!看好!干!
    0
    0
    打赏
    回复
    投诉
  • 华生
    老股民
    只看TA
    2023-02-09 13:28
    谢谢分享
    0
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-02-09 12:03
    好强呀,膜拜
    0
    0
    打赏
    回复
    投诉
  • 無我
    买买买的公社达人
    只看TA
    2023-02-09 11:21
    CPO概念继续暴击
    0
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-02-08 06:27
    感谢分享
    0
    0
    打赏
    回复
    投诉
  • 1
  • 2
  • 3
  • 4
前往