登录注册
高温考验+算力需求,英伟达被"液冷"卡脖子
句号
2023-07-14 13:29:51


昨晚英伟达收涨461.83美元,再一次刷新历史最高价,年内涨幅高达214.6%,在美股的一众顶级科技股中独占鳌头,成为又一只万亿市值的科技巨头。

 

与此同时,从今年2月开始,中国台湾厂商AVC和双鸿(AURAS)股价一路飙升,两家公司的股价较4个月前均实现翻倍,显然不是巧合。

 

AVC是全球最大散热模组厂商,也是英伟达AI服务器系统DGX H100目前的风冷散热系统供应商,双鸿则是Supermicro(超微电脑)服务器散热系统的供应商。

 

两者都是和英伟达有着密切的关系,属于一人得道鸡犬升天的典型案例。

 

由于AI带来的数据量和计算量的爆发增长逐渐从幕后走向台前,未来两年,AI行业中可能会出现算力被散热“卡脖子”的情况。

 

也许AI的尽头是散热。

 

 

一、散热是制约计算能力的最大阻碍之一

 

当电流通过电阻时,所消耗的电能会全部转化为热能,这种现象被称为电流的热效应,自计算机诞生以来,从业者们用尽办法将电子器件的温度控制在合理的范围内。

 

从早期计算机诞生开始,由于早期的计算机功耗较低,而且整机体积较大,因此不需要单独设计系统级的散热解决方案,通常做法就是在计算机背部放置个简易的风扇,以将热流导出。

 

随着芯片制程技术的提升,芯片功能的集成化加速,轻巧、方便、处理性能强的发展模式逐渐占据市场主流。高频计算不仅仅带来了高能量的消耗,同时也带来了各种发热、散热的现实问题。

 

74世界气象组织宣布,热带太平洋再次形成厄尔尼诺条件,这可能导致全球气温飙升、破坏性天气和气候模式的出现。近年来,随着全球温度持续升高,数据中心在极端高温下突发故障的现象已不鲜见。无独有偶,近日中央气象台持续发布高温橙色预警,多省份局地温度达40℃以上。持续高温下,数据中心的散热问题受到各方关注。去年夏天,在高温的冲击下,谷歌、甲骨文等科技巨头的数据中心一度出现冷却系统瘫痪,导致运行故障。前车之鉴历历在目,国内数据中心将如何迎接“烤”验?

 

 

 

传统的服务器散热方案与计算机散热原理大致相同,区别在于服务器所使用的算力芯片由于能耗较高,往往将芯片级散热系统作为重点,通常来说就是将芯片热量通过热管、均热片等传导到多褶结构的散热鳍片上,再通过风扇进行主动散热。

 

进入AI时代之后,高性能AI芯片的功耗在随着算力同步大幅提升。10年前市面上能买到的最顶级的数据中心GPU是英伟达K40,其热设计功耗(TDP)235W2020年英伟达发布A100时,热设计功耗接近400W,到了最新的H100芯片,热设计功耗直接飙升到700W。预计明年单颗高性能AI芯片的热设计功耗将会突破1000W

 

通过风冷式散热方式明显显得力不从心。

 

 

二、液冷将成为AI时代的无二选择

 

AI的快速发展对于算力的需求和耗电量的提高,推动数据中心规模扩大、功率提高,使得液冷温控技术成为发展趋势,进而冷却液产品需求增加。根据PMR对直接数据中心液冷市场的预估,2022-2032年市场需求将快速增长,复合年增长率为25.8%

 

今年6,中国移动、中国电信、中国联通共同发布的《电信运营商液冷技术白皮书》,当前,单相浸没式液冷、冷板式液冷为液冷技术的主要形式。浸没式液冷是服务器完全浸入冷却液中,全部发热元件热量直接传递给冷却液,通过冷却液循环流动或蒸发冷凝相变进行散热的一种方式。冷板式液冷是服务器芯片等高发热元件的热量通过冷板间接传递给液体进行散热,低发热元件仍通过风冷散热的一种方式

 

 

 

 

IDC预计,2021-2026年,我国智能算力规模年复合增速达52.3%,随之将带来数据中心单机功率密度提升与能耗攀升,传统的风冷已无法满足日益增长的散热需求,液冷技术重要性进一步凸显。据《中国液冷数据中心发展白皮书》,预计到2025年,我国液冷数据中心市场规模超过1200亿元。

 

 

目前单张 A100 功率达 400WH100 700W,未来芯片制程难以提升的情况下,效能功耗比难以进步,单卡功率将只增不减。英伟达明确未来逐步切换液冷方案以适配 HGX 平台。Supermicro 推出适配英伟达 HGX H100 的液冷服务器方案。据 Supermicro 数据,使用液冷可以帮助 IDC 节省 40%的电力。

 

 

 

三、多渠道发展,液冷技术提升加速

 

根据接触方式的不同,液冷可分为间接接触型(冷板式液冷)和直接接触型液冷(浸没式液冷和喷淋式液冷)

 

 

①冷板式液冷:将液冷冷板固定在服务器的主要发热器件上,通过液体流经冷板带走热量,从而散热。

 

该技术发展较早,成熟度较高,应用较为广泛,具有商用基础,但是存在漏液和成本偏高的问题。

 

②浸没式液冷:将发热元件直接浸没在冷却液中,通过冷却液循环带走服务器等设备运行产生的热量,主要分为单相和相变技术。

 

该技术需要全新的数据中心设计方案,需要特殊化定制和设计IT设备,成本较高,目前尚不能大规模应用,未来发展前景较好。

 

③喷淋式液冷:在机箱顶部储液和开孔,对发热体喷淋冷却液,从而达到降温。降温过程中,可能会出现冷却液飘溢问题,会影响机房及设备环境。

 

 

根据《绿色高能效数据中心散热冷却技术研究现状及发展趋势》,我国数据中心约有45%的能耗用于IT设备,43%用于散热冷却设备。

 

目前数据中心冷却仍以风冷为主,但随着数据中心数量增加、大型机架占比提升,数据中心高耗电的问题已不容忽视,政策对于PUE的要求也日趋严格,液冷逐步成为冷却重要方案之一。

 

 

四、相关个股汇总

 

高澜股份300499公司服务器液冷业务拥有三种解决方案:冷板式液冷、浸没式液冷和集装箱式液冷,可有效降低大型数据中心的PUE(数据中心总设备能耗/IT设备能耗)。

 

中石科技300684公司宜兴子公司主营产品包括液冷模组等,建立相关技术储备和产品线,为国内外多家服务器企业提供液冷等全方位的管理综合解决方案。

 

英特科技301399公司产品包括液冷散热器,直冷式液冷散热器应用在大数据中心。

 

同星科技301252公司液冷相关产品有应用于数据中心及液冷服务器。

 

 

 

科华数据002335目前公司自主研发的液冷技术已运用在公司数据中心及储能产品、解决方案中。领先的产品和技术是公司的长期核心竞争力,公司持续跟进客户的技术产品需求,做好相关技术储备,保持自身技术的领先性。

 

 

精研科技300709:公司可为消费电子、通信、激光投影、服务器等领域客户提供风冷模组、液冷模组、液冷板以及模组子件热管、VC等散热部品。

426日,公司公告称拟与王明喜等共同设立江苏精研热能管理有限公司。精研热能注册资本为3000万元人民币,其中公司拟以货币资金出资2460万元,占注册资本的82%。合资公司拟开展的业务主要为散热模组类产品。在人工智能大发展的背景下,高功耗的设备(5G基站、服务器)、数据中心、人工智能设备等均需要高效、稳定的散热方案以减少能耗、保证设备的性能和寿命

 

鸿富瀚301086子公司梅州鸿富瀚的液冷散热产品可以应用于服务器。

 

 

 

作者利益披露:原创,不作为证券推荐或投资建议,截至发文时,作者不持有相关标的。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
英特科技
S
同星科技
S
科华数据
S
精研科技
S
鸿富瀚
工分
94.49
转发
收藏
投诉
复制链接
分享到微信
有用 92
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(61)
只看楼主
热度排序
最新发布
最新互动
  • 只看TA
    2023-07-14 15:37
    高澜股份,英维克最好,前者技术最全面,后者是英伟达的亲弟弟
    7
    1
    打赏
    回复
    投诉
    于2023-07-15 09:33:15更新
    查看4条回复
  • 只看TA
    2023-07-15 12:45
    液冷吹了这么多次,资金就是不认。高澜有增发,增发价不到8块。咋个涨?
    5
    0
    打赏
    回复
    投诉
    于2023-07-15 23:39:44更新
    查看1条回复
  • 欢乐绿豆
    散户
    只看TA
    2023-07-14 18:19
    液冷来说,做的最好的应该是中科曙光吧。
    5
    1
    打赏
    回复
    投诉
  • 阅海山堂
    蜜汁自信的老司机
    只看TA
    2023-07-15 13:49
    曙光数创,也是液冷龙头之一,尤其还跟曙光股份有深度合作
    2
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-07-15 09:26
    海兰信海底数据仓不更好吗?
    1
    0
    打赏
    回复
    投诉
    于2023-07-15 09:34:47更新
    查看1条回复
  • 只看TA
    2023-07-15 20:40
    液冷应该是还有一波的。
    1
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-07-15 18:52
    谢谢分享,资金认不认,认了就冲!
    1
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-07-15 10:53
    谢谢分享
    1
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-07-15 10:37
    分析很棒,点赞
    1
    0
    打赏
    回复
    投诉
  • 只看TA
    2023-07-14 16:33
    谢谢分享
    1
    0
    打赏
    回复
    投诉
  • 1
  • 2
  • 3
  • 4
  • 5
前往