登录注册
Google专属供应特种有源光纤:博创科技!
逻辑吹吹
热爱评论的游资
2023-12-11 11:42:57
看到Gemini在朋友圈被刷屏了,实属震撼

昨晚迟迟未能入眠,脑子里都是感叹,这就是应用大爆发(斯坦福华裔美女等4人开发“文生视频”Pika项目估值2个亿?AI应用堪比寒武纪生物大爆发),就连遭受质疑的Pika,也被相关知名博主验证了

言归正传,说到Google这回憋的大招,作为AlphaGo的创造者,有望通过Gemini一洗被OpenAI超过的前耻

数据上看,Gemini Ultra是首个在 MMLU(大规模多任务语言理解数据集)任务表现上优于人类专家的大模型,得分率高达90.0%。

作为对比,人类专家的成绩为89.8%,GPT4的成绩为86.4%

显然,这次Gemini赢了

而我还注意到一条消息,早在今年8月,著名分析师Dylan Patel称,Gemini训练所需的算力是GPT-4的五倍,数据库为 Youtube 上 93.6 亿分钟的视频字幕,总数据集大小约为 GPT-4 的两倍


 


Gemini的预训练数据集使用来自web文档、书籍和代码的数据,包括图像、音频和视频数据,并通过筛选、过滤方式去除有害数据,提升数据质量

硬件层面,采用了谷歌的TPU v5e及v4训练,并针对任务进行优化,训练的硬件规模相较上一代的PaLM-2显著提升

谷歌在此次发布会推出更高级的TPU v5p,与TPU v4相比,TPU v5p的Flops性能提高了2倍以上,高带宽内存(HBM)增加了3倍,模型训练速度将提高280%

如此看来,Google强大了,不再依赖英伟达而Google自研的TPU芯片和自研的光电路交换(OCS)所形成网络架构闭环是对openai与英伟达的联合反击,而Gemini的超预期快速推出是对OpenAI旗下ChatGPT4.0的反击

未来谷歌的训练、推理成本将会变得非常低,TPU(V4)单颗是5000美金,预计v5会贵些,但对比2.6万美金H100几乎微不足道

换个角度想,英伟达、OpenAI不再是唯一,那更新迭代升级给下游降本将是未来AI算力链的主旋律,各种量价齐升的逻辑对于AI算力股岂不乐哉?

GPT4.5、GPT5.0也许要被迫提前出击迎战Gemini

对于整个AI应用端,谷歌可不止有大模型,还有youtube、安卓、google search、地图、语音助手Now、日历、浏览器、workspace,看来此次反击力度堪比冲绳岛战役了


回到投资机会


从刚才的陈述中,基本可以推断,大模型就是个大力出奇迹的产品,更多更优质的数据+更变态的算力

所以围绕Google算力供应链无疑是A股最正确的选择

先看光模块链

首先Gemini的推出,大概率让Google对明年800g的需求进行上修

Google60~70%的800g光模块是,另外20%~30%是Finisar+云晖供应

其中腾景科技给旭创和云晖供光器件,1个800g对应100元,同时二六也在扶持腾景,明年增速不低

另外就回到Google组网这块,由于不用英伟达的IB交换机,采用自研的光电路交换(OCS)


图片

图片

题目:TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings

名称:TPU v4:用于机器学习的光学可重构超级计算机,具有嵌入的硬件支持

论文:https://dl.acm.org/doi/10.1145/3579371.3589350

单位:谷歌


而OCS中的连接,需要大量定制的特种有源光纤

这块厂家由刚收购了大股东体外长芯盛的博创科技(存在明显预期差)来供应

长芯盛做的是定制的跳线,若干根捆在一起,满足低延时的性能要求,直接给Google供,工厂在印尼

这块净利很高预计达到30~40%,同时博创在16年就已经布局硅光光模块,目前400g已批量生产,此前大股东变更为长飞光纤,跟海外客户关系更价密切

博创明年1块多的业绩才25倍, 重视谷歌算力链条的变化

作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
博创科技
S
新易盛
S
苏州科达
S
腾景科技
工分
4.68
转发
收藏
投诉
复制链接
分享到微信
有用 8
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
暂无数据