HBM(High Bandwidth Memory)是一种高速内存技术,用于提高处理器的内存带宽和性能。它是一种用于高性能计算和人工智能应用的内存解决方案。HBM通过使用较小的存储单元和更短的寻址时间,提高了内存带宽和性能,同时降低了功耗。HBM已经成为了GPU和其他高性能处理器的重要内存解决方案,并被用于许多高性能计算和人工智能应用中。
大模型伴随自身参数的爆发增长持续迭代升级,AI服务器深度受益于AI大模型的参数增长。2023年3月15日,OpenAI发布了ChatGPT的最新版本——GPT4模型,揭开了第四次科技革命——“智能时代”序幕,人类进入AI大模型时代。而目前大模型升级的趋势之一即是参数量的飙升。大模型的参数规模越大,意味着算力负担越重,而AI服务器则是算力的核心。TrendForce不断上修AI服务器出货量,预计2023年AI服务器(包含搭载GPU、FPGA、ASIC等)出货量近120万台,年增38.4%,占整体服务器出货量近9%,至2026年将占15%,同步上修2022~2026年AI服务器出货量年复合成长率至22%。我们认为AI创新引发的算力“军备竞赛”将推动AI服务器超预期渗透。
目前GPU主流存储方案主要分GDDR方案与HBM方案两种,其中GDDR方案在SoC周围有大量外设,该方案主要通过从GDDR5升级为GDDR6提高带宽,但GDDR如果要增加1GB的带宽将会带来更多的功耗,因此不利于系统性能提升;
而HBM方案作为近存计算的典型技术,可以改善存算分离导致的“存储墙”问题,即存储单元的带宽问题、存储单元与计算单元键数据传输的能效问题,并且HBM方案中存储Die的垂直堆叠也增大了容量,由此HBM技术完美契合当前GPU对更多的内存、更高的带宽的刚性需求。
推荐两只相关个股
002815崇达技术
普诺威IC载板制程能力可以满足HBM储存基板的设计需求
688206概伦电子
公司的EDA工具可用于HBM的设计制造环节