登录注册
柴尔德
满仓搞的剁手专业户
2023-03-07 23:41:08
ChatGPT对芯片设计端有什么变化?
ChatGPT对算力要求很大,现在是GPT3.5,训练NLP大模型,训练一次算力3640p,如果用英伟达A100的显卡,需要上万块才能完成。
受益最大的是提供算力的AI芯片厂,如英伟达,A100,H100,需求有大规模增长。会促使整个产业链都去做高性能芯片。从设计公司看,谁能抢到这个市场,都是一个机遇。国内做高端芯片的企业不多,寒武纪,昆仑芯。
目前看支持ChatGPT训练的肯定要往大算力方向走。从设计端看到两个思路。一是依靠先进工艺迭代,从16纳米到7纳米,晶体管集成度提高一倍。再从7纳米提高到5纳米,3纳米。英伟达最新的H100已经达到5纳米。这是一个思路,但靠工艺迭代已经有了瓶颈,到2,3纳米以下,以后技术难度要增加很多,而且也接近硅材料的物理极限,再小也做不了。
另外一种思路是先进封装,有比较成熟的解决方案,像2.5D封装,内存上有用3D封装。目前AI上用的最成熟的是2.5D封装。把高宽带的内存颗粒和芯片封在一个封装上,提高带宽内存访问速度,也提高AI整体性能。算力再强,访问速度慢,计算性能也差。2.5D封装目前就是要解决大算力性能跟宽带的思路。
再以后要提高算力,就走Chiplet路线,把晶粒放一起,通过高速互联接口,把它连起来,算力翻倍。苹果把两个CPU拼在一起,同理也可以通过Chiplet把两个AI处理器拼一起。寒武纪已经实现这种技术。
先进制程和先进封装能延续摩尔定律的思路。现在受限于大算力芯片功率问题,用的2.5D封装,没有直接用3D叠上去做。以后散热问题解决,算力还能提升。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
工分
2.67
转发
收藏
投诉
复制链接
分享到微信
有用 7
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
暂无数据