登录注册
信息技术产业行业研究:AI+散热,站上新风口
财源富贵的曹操
高抛低吸的小韭菜
2023-04-24 14:19:14
投资逻辑   AI带动算力芯片、IDC机柜功率密度升高,液冷降低能耗压力,满足数据中心建设需求。随着AI模型训练推理等应用增加,多样化算力协同成常态,英伟达H100功率达700-800W,单IT机柜主流功率密度将从6-8KW/柜提高到12-15KW/柜,超算、智算中心功率密度将提升至30kW以上。后摩尔定律时代AI芯片性能和功耗(含热设计功耗)同步大幅提升,风冷芯片级散热功耗上限在800W左右,风冷达到功率上限后性价比下降。液体吸热能力更强,水的热导率是空气的23倍以上。多地对数据中心提出规划方案,要求新建数据中心PUE限制在1.3以下,存量数据中心PUE不高于1.4。据uptimeinstitute,数据中心PUE下降趋势放缓,亟需冷板式/浸没式液冷技术降低PUE和整体能耗。   芯片级散热模块价值量成倍提升,液冷系统价值量高且经济效益突出。目前芯片级散热主要以由热管、均热板和3DVC等构成的风冷散热模组为主,对应的散热功耗上限、成本差距明显,风冷对应功耗上限在700-800W,传统风冷模块单机价值量是15-20美金,随着功耗提升3DVC价值量翻倍,水冷功耗可突破千瓦,价值量有3-4倍差距。制冷系统是IDC前期建设和后期运营的主要成本之一,根据施耐德电气和CDCC统数据,制冷系统在数据中心CAPEX占20-25%,OPEX电力成本占40%。市场普遍认为液冷初始投资较高且后期维护较复杂,我们根据施耐德电气测算发现,液冷数据中心建设能够去掉冷冻水机组、减少机架和节省IDC占地面积,降低IDC前期整体建设成本;同时液冷更加节能,节省电费减少运营成本。测算表明,功率密度为10kW/机架风冷和液冷数据中心的投资成本大致相等(7美元/kw)。在提升数据中心功率密度时,液冷数据中心在节省占地空间和机架数量的成本优势愈发明显,提升2倍功率密度(每机架20kW)可使初投资可降低10%;提升4倍功率密度(每机架40kW)可节省14%的投资成本。制冷系统在整个前期CAPEX占比也由风冷的15%提升至液冷的30%,对应制冷系统价值量由0.98美元/W提升至1.83美元/W。   AIGC驱动芯片级散热模块、液冷市场总量增加和边际增速提升。当前冷板式液冷采用微通道强化换热技术具有极高的散热性能,行业成熟度最高;浸没式和喷淋式液冷实现100%液体冷却具有更优的节能效果。当前通用算力机架规模占比超过90%,超算、智算中心逐步从早期实验探索走向商业试点,预期规模增速将达到70%。我们测算,国内科技公司和院校推出的AI大模型训练+推理会带来40亿元的液冷市场空间,随着模型参数增加、日活增加和时延降低等发展,未来四年带来液冷市场60%+复合增速,其中服务器芯片级散热模块保持29%复合增速。   投资建议   我们认为AI大模型有望引领算力需求升级,带动高功率密度的智算和超算中心建设,加速配套设施液冷系统导入市场,未来伴随新建数据中心建设和存量数据中心改造,整体渗透率有望快速提升,同时高功耗也有望带动散热系统向芯片级升级。当前液冷行业仍处在发展早期,看好在技术+产能领先布局的厂商。   考虑到竞争壁垒在于对场景定制化程度的理解、平台化能力的快速延展,我们建议从三条主线关注液冷技术的发展和投资机会:1)华为电气-艾默生系的专业温控厂商:最早从事精密空调研发设计,具备多年的产业洞察,对技术研发具备前瞻性,且形成平台化的散热布局,赋能多行业应用;2)布局液冷技术的服务器厂商:冷却技术由房间级向行级甚至服务器内部芯片级延伸,能够参与液冷技术方案的服务器厂商,有望更快抓住算力升级的产业机遇,强化产品竞争力;3)提供包含芯片级散热的完整解决方案的供应商:芯片作为服务器核心热量源,随着高算力、高性能、先进制程芯片功耗的提升,散热方案向服务器内部芯片级升级,芯片级散热由风冷系统向液冷升级。   推荐组合:申菱环境、英维克、中兴通讯、中科曙光(曙光数创)、浪潮信息、依米康、富信科技、中石科技。   风险提示   人工智能发展不及预期;液冷技术导入不及预期;市场竞争加剧风险。
作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
申菱环境
工分
1.55
转发
收藏
投诉
复制链接
分享到微信
有用 3
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
暂无数据