登录注册
英伟达引领“AI摩尔定律”,直击AI的IPHONE时刻
八极游
不要怂的小韭菜
2023-03-24 16:56:01
事件:

英伟达3月22日宣布推出3款全新推理GPU,发布了NVIDIA cuLitho计算光刻库、AI超级计算服务DGX Cloud、加速企业创建大模型和生成式AI的云服务NVIDIA AI Foundations等。英伟达CEO黄仁勋称,“崭新的计算平台已经诞生,AI的iPhone时刻已经到来”(We are at the iPhonemoment of AI)。

DGX H100 AI超级计算机全面投入生产,简化AI训练

英伟达加速计算始于DGX(AI超级计算机),这是大型语言模型实现突破背后的引擎。英伟达H100GPU基于公司最新Hopper架构,在大型语言模型上比上一代A100提供了快9倍的AI训练和快30倍的AI推理。本次发布的DGX H100拥有8个H100 GPU模组,在FP8精度下可提供32PetaFLOPS的算力,并提供完整的英伟达AI软件堆栈,助力简化AI开发。黄仁勋宣布,NVIDIA DGX H100 AI超级计算机已全面投入生产,很快将面向全球企业。微软宣布Azure将向其H100AI超级计算机开放私人预览版。

GPU高效互连技术为英伟达提供底层技术支撑。此次发布的计算平台是在2022年Hopper架构的基础上,进行升级和拓展。DGX H100有8个H100协同工作,通过NVLINK和NVSwitch彼此相连,组成了一个巨型GPU,实现全面无阻塞通信。借助NVSwitch,NVLink连接可在节点间扩展,以创建无缝、高带宽的多节点GPU集群,从而有效地形成数据中心大小的GPU,快速完成大型AI作业。
我们认为,在ChatGPT掀起的AIGC热潮下,大规模AI模型训练和推理量激增,催生对低延迟、高速率传输交换的光网络的迫切需求。当前英伟达可以通过NVLink-C2C技术实现高速、低延迟、芯片到芯片的互连,NVSwitch结构在本质上仍然是一种对NUMA直接放大的方法,仍然受到线缆布局的限制。光电共封(CPO)将进一步降低数据传输延迟和减少信号损失,是英特尔、英伟达等头部算力公司重点关注的技术方向。

针对垂直领域推出芯片及付费服务

针对不同的应用领域,英伟达发布了用于AI视频生成的通用GPU L4;用于图像生成的L40;针对ChatGPT等大型语言模型的大规模部署的H100 NVL;为推荐系统和大型语言模型的AI数据库所设计的Grace Hopper超级芯片。

在计算服务端,英伟达推出了一项名为DGX Cloud的AI超级计算服务,与微软Azure、谷歌OCP、Oracle OCI合作,通过一个Web浏览器就能访问,以便企业为生成式AI和其他开创性应用训练先进的模型。DGXCloud实例的起价为每个实例每月36999美元。此外,英伟达还推出了三种模型构建服务,分别为文本生成模型构建服务、视觉语言模型构建服务、生命科学模型构建服务。

我们在之前的报告指出,通用性递减,专用性增强,为AI芯片的主要发展方向,英伟达此次发布偏专用领域的推理平台,印证了我们的观点。2021年中国以GPU为主实现数据中心计算加速,GPU在算力芯片的市场占有率接近90%。ASIC,FPGA,NPU等非GPU芯片市场占有率超过10%。国际科技网络巨头公司谷歌、脸书,亚马逊等等在AI芯片领域从云端训练到终端产品应用,在开源框架赋能产业行业上有一定的领先优势。受美国科技制裁的影响,部分高性能GPU对华禁售,如英伟达A100和H100,AMD的MI250。国内人工智能产业的发展需要国内GPU的共同成长,国产替代势在必行,重点关注GPU、ASIC、FPGA芯片进展,以及有望突破芯片制程限制的Chiplet技术。

工业元宇宙加速落地,构建Omniverse生态

Omniverse是英伟达打造的工业数字化平台,旨在搭建数字化和物理世界之间的桥梁,让各个行业在投入实际生产之前先以数字化方式设计、建造、运营和优化物理产品和工厂。
英伟达宣布了专门为运行Omniverse而设计的硬件设备。第一个是由英伟达Ada RTX GPU和英特尔最新CPU驱动的新一代NVIDIA RTX工作站,能使专业人士能随时随地访问Omniverse和工业元宇宙工作负载,将从三月份开始在Boxx、戴尔、惠普和联想上市;第二个是针对Omniverse优化的新型Nvidia oVX服务器,将由戴尔、惠普、Quantn、技嘉、联想和SuperMicro提供,企业可以利用OVX性能在可视化、虚拟工作站和数据中心处理工作流程等方面进行协作。

英伟达还推出了Omniverse Cloud的云服务,支持即时、安全地访问托管的Omniverse Cloud API。英伟达正在与微软合作,将Omniverse云服务引入全球各个行业。同时,英伟达正在将Omniverse云连接到Microsoft365生产力套件,包括Teams、OneDrive、SharePoint和Azure IoT数字孪生服务。

我们认为,随着AI训练成本的降低,“AI平民化”并且赋能前行百业的时代即将到来。据ARK预测,硬件和软件的融合可以推动人工智能训练成本在2030年前均以每年70%的速度下降。以GPT-3模型为例,2020年,单次训练成本高达460万美金,需要1万块GPU耗费13天。参考计算机从大型化、工程化应用,到台式笔记本,再到智能手机的发展路径,随着人工智能在编程、办公等工业应用逐渐兴起,以GPT4为代表的多模态AIGC模型将进一步挖掘消费端的应用市场。英伟达Omniverse服务降低了AI模型的成本,使移动端AI应用成为可能,将在更多的垂直领域引发产业革命。

推荐关注

随着算法迭代、算力增强和数据增长,国内AI大模型将持续追赶国际头部公司,AI产业链的估值将保持抬升的态势,建议持续跟踪本轮科技浪潮。相关产业链投资机会:

算法环节:拓尔思、科大讯飞、大华股份、海康威视;

算力环节:寒武纪、海光信息、复旦微电、紫光国微、拓维信息、中科曙光等;

CPO、光传输环节:源杰科技、中际旭创、光迅科技、新易盛、光库科技、声光电科等;

Chiplet:通富微电、长电科技、甬矽电子、芯原股份、兴森科技等;

AI服务器电源:杰华特、希荻微等。

风险提示:AI算法、模型存较高不确定性,AI技术发展不及预期;ChatGPT用户付费意愿弱,客户需求不及预期;针对AI的监管政策收紧。

作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
拓尔思
S
科大讯飞
S
拓维信息
S
中际旭创
S
兴森科技
工分
4.31
转发
收藏
投诉
复制链接
分享到微信
有用 7
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(1)
只看楼主
热度排序
最新发布
最新互动
  • 只看TA
    2023-03-25 18:17
    楼主辛苦了,过去的一周中际旭创是当之无愧的大牛,两市涨幅第一,
    0
    0
    打赏
    回复
    投诉
  • 1
前往