登录注册
存储技术塔尖上的明珠---HBM
大浪88淘沙
老司机
2023-06-01 00:05:58

HBM(High Bandwidth Memory),意为高带宽存储器
正如其名,HBM与其他DRAM最大的差别就是拥有超高的带宽。最新的HBM3的带宽最高可以达到819 GB/s,而最新的GDDR6的带宽最高只有96GB/s,CPU和硬件处理单元的常用外挂存储设备DDR4的带宽更是只有HBM的1/10

HBM的优点

高速、高带宽HBM堆栈没有以外部互连线的方式与信号处理器芯片连接,而是通过中间介质层紧凑而快速地连接,同时HBM内部的不同DRAM采用TSV实现信号纵向连接,HBM具备的特性几乎与片内集成的RAM存储器一样。
可扩展更大容量
HBM具有可扩展更大容量的特性。HBM的单层DRAM芯片容量可扩展;HBM通过4层、8层以至12层堆叠的DRAM芯片,可实现更大的存储容量;HBM可以通过SiP集成多个HBM叠层DRAM芯片,从而实现更大的内存容量。SK Hynix最新的HBM3堆栈容量可达24GB。
更低功耗
由于采用了TSV和微凸块技术,DRAM裸片与处理器间实现了较短的信号传输路径以及较低的单引脚I/O速度和I/O电压,使HBM具备更好的内存功耗能效特性。以DDR3存储器归一化单引脚I/O带宽功耗比为基准,HBM2的I/O功耗比明显低于DDR3、DDR4和GDDR5存储器,相对于GDDR5存储器,HBM2的单引脚I/O带宽功耗比数值降低42%。 
更小体积
在系统集成方面,HBM将原本在PCB板上的DDR内存颗粒和CPU芯片一起全部集成到SiP里,因此HBM在节省产品空间方面也更具优势。相对于GDDR5存储器,HBM2节省了94%的芯片面积

HBM具有更高带宽、更多I/O数量、更低功耗、更小尺寸,

总结一下就是:HBM3技术很牛,最先进的存储技术就是HBM3

AI服务器对带宽提出了更高的要求,而HBM基本是AI服务器的标配,超高的带宽让HBM成为了高性能GPU的核心组件。自从去年ChatGPT出现以来,HBM作为AI服务器的“标配”,市场需求激增。2023年开年以来三星、SK海力士HBM订单就快速增加,价格也水涨船高。近期HBM3规格DRAM价格上涨了5倍
HBM成本在AI服务器成本中占比排名第三,约占9%,单机ASP(单机平均售价)高达18,000美元。所以,AI服务器是HBM目前最瞩目的应用领域

储存方向是人工智能浪潮下硬件受益方向之一毋庸置疑,那么储存的尖端技术,是绕不过去的产业逻辑;那么顺着产业化逻辑思考可以探索到一些可能的炒作思路

AI服务器GPU市场以NVIDIA H100、A100、A800以及AMD MI250、MI250X系列为主,基本都配备了HBM

HBM作为DRAM的一种,其市场也被三巨头瓜分。目前技术走在最前面的是SK海力士,并且它也拥有第一的市占率,高达50%,紧随其后的是三星,市占率约40%,美光约占10%。预计到2023年,SK 海力士市占率有望提升至 53%,而三星、美光市占率分别为38%及9%。

从技术上先来看,SK海力士是目前唯一实现HBM3量产的厂商,并向英伟达大量供货

HBM今后的存在感或许会越来越强。集邦咨询预计2023-2025年HBM 市场年复合增长率有望增长至40%-45%以上

市场调研机构Omdia预测,2025年HBM市场的总收入将达到25亿美元。据新思界发布的分析报告显示,预计2025年中国HBM需求量将超过100万颗

以上内容来自于网络总结,仅供参考,不提供任何操作建议

作者利益披露:原创,不作为证券推荐或投资建议,截至发文时,作者持有相关标的,下一个交易日内可能择机卖出。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
香农芯创
S
太极实业
S
英伟达公司
S
深科技
S
江波龙
工分
11.02
转发
收藏
投诉
复制链接
分享到微信
有用 8
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(1)
只看楼主
热度排序
最新发布
最新互动
  • 只看TA
    2023-06-01 08:33
    a股一个标的都没有
    0
    0
    打赏
    回复
    投诉
  • 1
前往