登录注册
全面对标英伟达,华为为世界提供第二次算力,一文全产业链梳理
万物周期游击队
2023-10-17 22:33:29
全面对标英伟达,华为为世界提供第二次算力,一文全产业链梳理
32,254人浏览2023-10-17 16:24

全面对标英伟达,华为开启国产自主可控新征程。我们认为英伟达作为全球AI算力芯片龙头坐拥三大法宝,分别是高性能芯片、其中IC设计是重点,CUDA架构、助力AI加速计算生态,Nvlink、NVSwitch助力芯片快速互联互通与InfiniBand配合组网技术实现高效互联互通;而华为作为国产计算之光全面对标英伟达,在算力方面,昇腾910芯片单卡算力已经可以与英伟达A100相媲美;统一达芬奇架构助力AI计算引擎;HCCS互联技术,实现卡间高速互联。

image.png

英伟达三大AI法宝之一:高性能芯片 全球高端GPU领导者,经数十代产品迭代,技术指标全面升级。CUDA作为GPU内部主要的计算单元,从512个升级到超14000个。2022年公司发布首款CPU产品Grace,每瓦性能是当今领先 CPU的2 倍。2023年,英伟达发布多款AI超算产品。

image.png

英伟达三大AI法之二:CUDA架构,助力AI加速计算生态 GPU适用于处理大数据集,CUDA核是本质原因。可以简单理解,CUDA是英伟达实现软硬件适配的一种“类编译器”,将软件的代码转换成硬件汇编代码,CUDA是英伟达实现软硬件生态的护城河。CPU做的专注线性计算,GPU做的是并行计算(数据之间没有直接关系),而本质的原因是CUDA核的不同,CUDA核越多,计算性能越强 CUDA生态合作者规模翻倍增长。目前有400万名开发者正在与CUDA合作, 目前CUDA的下载量已经超过了4000万次。

image.png

英伟达三大AI法之三: 助力芯片快速互联互通  英伟达推出NVLink技术代替传统的PCIe技术:第四代NVIDIA® NVLink® 技术可为多GPU系统配置提供高于以往1.5倍的带宽,以及增强的可扩展性。NVSwitch与Nvlink协同互联,可用于网络内归约和组播加速。

Spectrum-X是新时代组网能力的一种体现:用于使用以太网构建多租户、超大规模AI云。助力客户显著提高 AI 云的性能和能效,并获得更高的可预测性和一致性,从而缩短上市时间并提高竞争优势。

image.png

英特尔和微软称霸PC时代,随着软件应用公司的出现:社交Facebook、零售Amazon、服务电子商务Uber以及国内BAT等,PC时代的生态圈丰富完善,以英特尔x86架构为主的CPU提供底层算力,可称之为“第一次算力”。目前万物互联时代,作为“中国芯”希望之一的华为在此产业背景下推出鲲鹏算力,据《鲲鹏展翅-华为杂志第83期》中华为Cloud&AI产品与服务总裁侯金龙介绍,目前已部署超过10万台鲲鹏与昇腾设备,华为云60%以上的场景2019年切换到鲲鹏与昇腾平台。鲲鹏的核心优势之一是多核低功耗,通过华为的加速技术,性能提升50%,过硬技术保障算力的可靠性。华为“军团型”生态卓有成效,截至19年6月末,解决方案伙伴数量超1200家,服务伙伴超3,900家。 “打造数字中国的底座,携手生态伙伴”的战略及过硬技术将助力华为给世界提供“第二次算力。

华为的反击之一:国产芯片之光:华为海思鲲鹏CPU&
海思昇腾AI芯片 国产芯片之光:华为海思鲲鹏CPU。芯片端——鲲鹏920面向数据中心,主打低功耗强性能。服务器端——打造TaiShan服务器,实现高效能计算。目前,华为正基于“硬件开放、软件开源、使能伙伴、发展人才”的策略推动鲲鹏计算产业的发展。

image.png

至强”系列处理器是英特尔服务器系列CPU,表1列举了英特尔最近一段时间推出的三款处理器(9222、8270以及6138P)的主要参数。与之对比,可以看到,鲲鹏920的7nm工艺较为领先,主频上差别不大,功率更低,在内核数量上有较大优势。根据海思官网的介绍,鲲鹏920大部分性能提升来自优化的分支预测算法、增加的OP运算单元和改进的内存子系统架构。 

image.png

全栈全场景AI芯片,构建智能计算架构核心。昇腾 910 和昇腾 310 两款AI 芯片均使用华为的达芬奇架构,每个 AI 核心可以在 1 个周期内完成 4096 次 MAC 计算,集成了张量、矢量、标量等多种运算单元,支持多种混合精度计算,支持训练及推理两种场景的数据精度运算。参数方面,我们认为昇腾910芯片单卡算力已经可以与英伟达A100相媲美。 

image.png

华为的反击之二: 昇腾芯片,统一达芬奇架构助力AI计算引擎昇腾AI芯片的计算核心主要由AICore构成:AICore采用了达芬奇架构,它包括了三种基础计算资源,矩阵计算单元、向量计算单元和标量计算单元。这三种计算单元分别对应了张量、向量和标量三种常见的计算模式,在实际的计算过程中各司其职,形成了三条独立的执行流水线,在系统软件的统一调度下互相配合达到优化的计算效率,AICore中的矩阵计算单元目前可以支持INT8、INT4和FP16的计算;向量计算单元目前可以支持FP16和FP32的计算。我们认为本质上讲昇腾芯片属于专为AI而生的特定域架构芯 

image.png

华为的反击之三:HCCS互联技术,实现卡间高速互联

HCCS是华为自研的高速互联接口,实现高效卡间连接。HCCS是华为自研的高速互联接口,片内RoCE可用于节点间直接互联。HCCS是HCCL的硬件形态,HCCL提供了深度学习训练场景中服务器间高性能集合通信的功能。在AI大算力集群背景下,单张AI芯片无法完成训练任务,需要联合多张AI芯片,数据传输速率同样重要,华为HCCS互联技术可以实现卡间高速互联,相较于PCIE模式有显著优势,能有效帮助服务器集群协同训练,从而加速AI的训练。

image.png

 

华为Atlas 900 SuperCluster亮相,打开国产算力集群想象空间华为发布全新架构AI集群,支持超万亿参数大模型训练:在华为全联接大会2023上,华为推出全新架构的昇腾AI计算集群——Atlas 900 SuperCluster。新集群采用了全新的华为星河AI智算交换机CloudEngine XH16800,借助其高密的800GE端口能力,两层交换网络即可实现2250节点(等效于1.8万张卡)超大规模无收敛集群组网。u华为Atlas 900 SuperCluster优势显著:新集群同时使用了创新的超节点架构,极大提升了大模型训练能力实现算力的资源统一调度,采用液冷设计。此外,发挥华为在计算、网络等领域的综合优势,从器件级、节点级、集群级和业务级全面提升系统可靠性,将大模型训练稳定性从天级提升到月级 

image.png

从算力到算网,网络可视化迎来黄金发展周期
从算力到算网,我国高度关注算力可管可控可调度:从裸金属算力到一体化调度算网,从“东数西算”到算力调度平台,可以看出我国正有意打造算力调度一体化解决方案,今年6月5日中国信通院联合中国电信发布我国首个实现多元异构算力调度的全国性平台全国一体化算力算网调度平台(1.0版),根据新浪科技,该平台汇聚通用算力、智能算力、高性能算力、边缘算力等多元算力资源,实现不同厂商异构资源池的算力动态感知与作业智能分发调度。特别是在AI训练作业调度流程中,可在智算资源池上进行训练推理,在通用算力资源池部署,从而实现跨资源池/跨架构/跨厂商的异构算力资源调度。AI浪潮下,网络可视化迎来空前发展周期:网络可视化简单的说即网络中的“摄像头”,对网络数据,流量来源进行监管、分析与挖掘。网络可视化技术将网络数据以图形化方式展示出来,快速直观地解释及概览网络结构数据,一方面可以辅助用户认识网络的内部结构,另一方面有助于挖掘隐藏在网络内部的有价值信息。 

image.png

 EDA:华大九天、概伦电子、广立微等;光刻:福晶科技、奥普光电、苏大维格、美埃科技、腾景科技等;

PCB:沪电股份、胜宏科技等;

内存接口:澜起科技、聚辰股份等;

连接器:华丰科技、鼎通科技等;

BIOS:卓易信息等;

电源:杰华特、欧陆通、中国长城等;

服务器:拓维信息、神州数码、天源迪科、四川长虹、高新发展等;

光模块:天孚通信,剑桥科技、太辰光、中际旭创等;

网络可视化:恒为科技、浩瀚深度、中新赛克等;

操作系统:润和软件、测绘股份、中国软件、麒麟信安、诚迈科技等;

技术开发:软通动力、常山北明等;

传统应用:海量数据、超图软件、赛意信息等;

AI应用:润达医疗、云鼎科技、梅安森、万达信息、龙软科技、金山办公、梦网科技等。算力线条:芯片是训练和部署大模型的底座,国产替代必不可缺。我们推荐寒武纪、龙芯中科、乐鑫科技、瑞芯微、恒玄科技、炬芯科技 

作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
拓维信息
S
神州数码
S
银信科技
S
天源迪科
S
四川长虹
工分
10.19
转发
收藏
投诉
复制链接
分享到微信
有用 10
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(2)
只看楼主
热度排序
最新发布
最新互动
  • 顺风不浪
    热爱评论的散户
    只看TA
    2023-10-18 08:04
    华丰科技,感觉还有一板
    1
    0
    打赏
    回复
    投诉
  • 江左财郎
    一卖就涨的老司机
    只看TA
    2023-10-18 07:24
    写的很好,太长了
    0
    0
    打赏
    回复
    投诉
  • 1
前往