登录注册
人工智能的发展是芯片周期的底层逻辑
高坚果
全梭哈的老股民
2023-03-31 10:42:30

AI交易的性价比下降,趁调整多观察

市场角度看,这几天因为AI的确挖的差不多,大部分标的都涨高了,交易的性价比就不太高了,市场就会进行短期的调整,最近新ZL去了海南,海南的热度比较高,然后之前一直说疫情第二波在三月份,现在马上进入四月份,一切都还比较顺利,所以消费复苏的预期可能会继续回归,加上马上临近五一假期,消费大概率会适当活跃,再则现在是年报季报的高峰期,会有个阶段性的炒作业绩,就会顺势回到老赛道,新能源光伏等。

我觉得趁着AI调整的时候,多花点时间研究选择,等待下一步机会比较好,大方向我坚定认为咬定AI这个线不能放手,找最受益的公司。近几日美光科技CEO在财报电话会议上强调人工智能技术未来将提振芯片行业销售,核心还是新的技术带来新革命带来新需求,所以记住炒作芯片优先级,先是从人工智能技术最先受益的算力芯片、存储芯片、连接芯片等。久了再去看人工智能赋能的赋能的万千行业带来芯片的需求。

今天我整理一些芯片的机会

算力芯片

 1、▲芯片需求=量↑ x 价↑ , AIGC拉动芯片产业量价齐升

1)量:AIGC带来的全新场景+原场景流量大幅提高。① 技术原理角度:ChatGPT基于Transformer技术,随着模型不断迭代,层数也越来越多,对算力的需求也就越来越大;② 运行条件角度:ChatGPT完美运行的三个条件:训练数据+模型算法+算力,需要在基础模型上进行大规模预训练,存储知识的能力来源于1750亿参数,需要大量算力。

2)价:对高端芯片的需求将拉动芯片均价。采购一片英伟达顶级GPU成本为8万元,GPU服务器成本通常超过40万元。支撑ChatGPT的算力基础设施至少需要上万颗英伟达GPU A100,高端芯片需求的快速增加会进一步拉高芯片均价。

2、ChatGPT的“背后英雄”:芯片,看好国内GPU、CPU、FPGA、AI芯片及光模块产业链

1)GPU:支撑强大算力需求。由于具备并行计算能力,可兼容训练和推理,目前GPU被广泛应用于加速芯片。看好海光信息、景嘉微;

2)CPU:可用于推理/预测。AI服务器利用CPU与加速芯片的组合可以满足高吞吐量互联的需求。看好龙芯中科、中国长城;

3)FPGA:可通过深度学习+分布集群数据传输赋能大模型。FPGA具备灵活性高、开发周期短、低延时、并行计算等优势。看好安路科技、复旦微电、紫光国微;

4)ASIC:极致性能和功耗表现。AI ASIC芯片通常针对AI应用专门设计了特定架构,在功耗、可靠性和集成度上具有优势。看好寒武纪、澜起科技;

5)光模块:容易被忽略的算力瓶颈。伴随数据传输量的增长,光模块作为数据中心内设备互联的载体,需求量随之增长。看好德科立、天孚通信、中际旭创。

存储芯片

美存储芯片巨头美光科技其发布了2023财年第二财季财报,当季营收36.93亿美元,同比大幅下滑52.5%,净亏损高达23.12亿美元,创下2003年第二财季(亏损19.4亿美元)以来的历史单季亏损新高。美光科技CEO在财报电话会议上强调人工智能技术未来将提振芯片行业销售。

美光相关数据显示,一台人工智能服务器DRAM使用量是普通服务器的8倍,NAND是普通服务器的3倍。美光CEO表示,展望未来时,它等于人工智能,人工智能等于内存,其预计存储芯片行业的市场规模将在2025年创下历史新高。 

存储IC 设计公司(兆易创新、普冉股份、东芯股份)、模组公司(江波龙、佰维存储、德明利)等。

连接芯片

转发【浙商·蒋高振】算力产业链·互联方案:GPU卡间互联→PCIe/NVlink,服务器互联→IB/以太网!

裕太微——千兆以太网卡芯片

澜起科技——PCIe Retimer芯片

数据互联:随着模型复杂程度增加,单张GPU无法完成训练任务,需要联合多张GPU,乃至多台服务器搭建集群协同工作,并需要GPU之间以及服务器之间进行数据传输交互。由于大模型数据量极大,在机器学习训练过程中,数据传输速度成为制约训练速度提升的瓶颈。在传统的方案中,GPU互联通常采用PCIe,服务器之间互联采用以太网Ethernet。


 部分内容源于券商研报及推荐

作者利益披露:原创,不作为证券推荐或投资建议,截至发文时,作者不持有相关标的。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
澜起科技
工分
3.83
转发
收藏
投诉
复制链接
分享到微信
有用 8
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
暂无数据