12月7日,AMD将举办AdvancingAI活动,推出全新MI300系列AI芯片,包含MI300A与MI300X芯片。
MI300为AMD最强AI芯片,性能是MI250X的8倍,业内认为对标英伟达H100。性能上,MI300X拥有8组HBM3核心,显存容量提升到了192GB,超过英伟达刚刚发布的H200,相当于NVIDIA H100 80GB的足足2.4倍。
此前在11月14日,英伟达发布H100的升级产品H200,是首款提供HBM3e的 GPU,借助HBM3e,显存相比H100的80GB提升76%,达到了141GB显存,直接提高了大模型训练效果,H200将于2024Q2正式发货。
据报道,MI300将在今年四季度开启交货,已收到大量订单。AMD透露,已有多家超大规模客户采用MI300系列产品,估计公司明年AI相关营收将逾20亿美元,并预测MI300将是公司创立以来最快实现10亿美元销售额的产品。
可以看到,无论是英伟达还是AMD在AI芯片的升级上,HBM的性能提升幅度都非常显著,AI芯片的算力竞争将持续提升HBM的市场空间。
在全球HBM市场,2022年海力士/三星/美光的份额分别为50%/40%/10%,海力士全球领先。海力士不但份额最高,产品进度及产能保障也领先于三星及美光。
三星及美光最新HBM产品将于2024年四季度放量,扩产节奏落后也将导致2024年HBM3e供给紧缺,推动HBM价格持续上涨。而海力士2023年HBM产能已出售完,同时预计HBM产线规模将在2024年增长2倍以上。近期海力士又预测,今年HBM出货量50万颗,到2030年将达每年1亿颗,也就是7年200倍。
目前,下一代HBM也已经在开发中了。11月21日,据韩媒报道,SK海力士计划将HBM4堆栈直接放置在GPU上,也就是“存算一体”,性能提升的同时将对带来散热新挑战,内存接口等零部件的数量也将翻倍。