登录注册
人工智能高峰论坛 — 算力,机遇及挑战
柴尔德
满仓搞的剁手专业户
2023-03-09 12:17:22

强人工智能时代的算力产业机会

国内主要能看到的芯片有:

1)英伟达上一代的 V100,也是当初 OpenAI 训练 ChatGPT 使用的主流芯片;

2)A100,这也是英伟达目前在国内主要销售的一款芯片,也是现在 ChatGPT 训练的主要平台;

3)H100 是英伟达在去年年底发布的,计划在今年下半年开始在国内很多地方布署,目前在国外的一些厂家也能看到 H100;

4)AMD MI250X:是 AMD 主打的一款芯片,可以用于高性能计算,也可以用于 AI,但是这款新品有一个问题就是 AMD 不向中国出售,而且它也在美国商务部的一个限制名单中,所以 MI250X 在短时间内在中国是见不到的,除非 AMD 有计划去改变;

5)Intel Habana;

6)Intel Xeon HBM:Intel 专门针对未来人工智能的训练,推出了一款至强的 HBM 芯片;

7)推理芯片 A30 和 A2 是英伟达推理芯片的两个极端,但是从指标上看,A30 在某种程度上也可以承担一部分 AI 的训练任务。因为美国的限制,英伟达推出了一款新的产品,叫做A800。针对 H100,英伟达也有对应的中国版型号叫做 H800,最主要的核心变化就是在 CPU 与 CPU 之间的带宽上,A100 到 A800 降到了 400G,H100 到 H800 降到了 450G,这就是英伟达目前向中国销售的两款产品。

2021 年,国内数据中心加速卡市场,Nvidia 占有 88.8%市场份额, Huawei 占有 8.8%市场份额,另外还有一些其他的厂家,大概占有剩下的 1%-2%,是个高度集中的市场。华为 2022 年出货量有一定下降,因为 2022年整体的经济形势不好,尤其像云厂商受到的冲击比较大,所以 2022 年整体市场出货量都有一定下降,但是英伟达的市场份额没有大的变化,基本的格局维持不变。

预计 2023-2024 年,市场出货量会有一个比较高速的增长,原因是:2022 年很多互联网厂商因为自身的业务问题,压缩 2022 年的业务和芯片需求,需求全部转到 2023 年;而且 2023 年面临着产品从原来的 A100要升级到 H800 的变化,2023 年有常规业务循环周期的要求,也要开始去做有关大模型的储备,所以互联网厂商在 2023 年的芯片需求会有一个比较大的增长。国内的很多互联网厂家的 AI 算力基本上满足于日常国内 AI 用户的需求,没有针对大模型这种需求去做很多的储备,所以很多厂家现在的算力资源不足,那么在2023 年考虑到要提前去做一些预演和尝试,2023 年会有一个小规模,也可能是比较大规模的布署;

2024 年会有一个比较爆发的增长。国内大模型可能会有 TO-C 端和 To-B 业务,很多 To-B 端会看到大模型的业务,所以在 2024 年会有一个高速增长,但是到后两年会进入一个常规性的增长状态,就比如说小规模的更新换代,一些新平台的引入,所以到后几年会呈现一个正常的增长幅度。大模型之所以会对 AI 芯片提出这么高的要求,是因为大模型训练规模增大,数据量增大,训练成本、消耗的设备资源增长成一种线性的增长。人工智能往大模型方向发展带来三个比较大的变化,就是大数据、大算力、强算法,这三个变化形成了大模型的一个基本入门门槛,如果说能解决这三个,或者解决核心的两个,厂家可以进入到大模型的业务当中。ChatGPT 使用 1 万片 A100 或 A800,完整的训练一次是 14 天,这个时间不算短;推理对于设备的要求是呈现一个爆发式的增长,因为随着用户访问量的增加,对于推理的设备要求量会越来越大,推理的算力并不高,但训练好的模型大约 400 G,这是一个模型的尺寸,要把这个模型装下,最少要用五片 A100(因为一片 A100 板上面有 80G 内存),所以传统的一台英伟达 DGX,基本上满足一个用户访问请求的需求,它的生成速度大概是每秒钟可以生成 15 到 20 个词,基本上占用了一台英伟达 DGX 一秒钟的资源,那随着用户数量及查询量的增加,对于设备的要求是一个爆发式的增长,所以未来大模型对算力的增长主要来自于业务部署时产生的要求,而对于训练,规模基本上保持一定,除非未来有更大规模的模型。

在大模型算力芯片架构选择上:
1)核心芯片:跑大模型的核心之一是芯片的支持计算精度,因为大模型多数情况下都在 FP32 计算精度上跑,而在推理跑的是 FP16 和一些混合精度,随着算力的增强,模型的效率越高,这几种架构中,GPGPU 是传统的 AI 训练加速器,还有包括像 ASIC 加速器,计算精度基本都在几十个 TF 范围内,是目前精度最高的。
CPU 大概是在十几个 TF 的数量级,CPU 的精度小了很多;DPU 是另外一种计算架构,只是做一些卸载工作;
FPGA 未来在大模型上不太适用,在一些传统的视觉分析中可以做,但是在现在的大模型上已经发挥不了作用。存算一体芯片现在只有欧美的大型国家实验室、企业才能购买设备并解决一体架构上的计算问题,能够提供很高的算力。

2)内存如果片上的内存小,或者内存效率不高,就直接影响到使用的设备数量;GPGPU 内存很大;CPU是片外内存,所以相对来讲差了很多,因为片外内存的访问,存在内存容量小以及访问延迟问题;DPU 内存更小;FPGA 片上内存也是个极小的单位,数量不适合大模型;存算一体在这一点是可以的,因为它本身是在存储空间上叠加了计算功能,所以可以做到相应比较大的内存空间,所以在内存上存算一体可做。

3)针对大模型的支持:大模型的定型体现在系统内芯片与芯片之间的定型以及系统与系统之间的定型,系
统之间的定型是系统厂家的问题,而片间互联 GPGPU 都有,最典型的是英伟达,有一个非常高效专有的协
议进行联接;而 CPU 没有,CPU 一般只有一个双路或者四路甚至八路,但是联接速率非常低;DPU 和 FPGA
基本上没有片间互联;然后存算一体有,因为它是多个小规模芯片连接在一起,所以势必有一个很好的片
间互联解决方案。
从架构上来讲,未来大模型最合适的是 GPGPU 和 ASIC 的架构。CPU 已经从原来传统的 AI 市场中慢慢淡出,CPU 很多方面的指标不满足大模型的要求,所以 CPU 可以配合加速卡去做很多大模型的训练和推理,只能起到一个配合的作用,作为主机当中的那个主要接口去提供,但是真正的计算和 CPU 无关,而在整个系统当中,他们只是一个很小的组成部分,不是里面的最核心平台;DPU 本身有很多局限性,只能起到给 CPU 和GPGPU 做一些功能,比如用 DPU 来做一些预处理,只能干一些边缘的事情,FPGA 不适合大模型,在未来会
退出大模型市场。存算一体需要看设计产品的算力、内存、片间互联效率,所以这也是对于存算一体的考验,不是所有存算一体芯片都可以拿去做大模型。


国内人工智能算力领域产业图谱:

1)华为目前最新的一代是昇腾 910,可以跑大模型,但是华为解决大模型的方法是完整的端到端,必须使
用华为的硬件、大模型的支持框架、大模型的模型全套,不能使用第三方,要使用第三方必须依赖华为去
做深度的优化和定制,否则第三方的开源模型拿到华为上是跑不了的,华为的解决办法就是端到端的完整
生态。

2)阿里巴巴自己设计的一款 GPGPU,目前对外透露性能大概是 A100 的两倍,本来该芯片应该在去年十月份发布,但是没有发布,可能在今年发布。阿里巴巴这款芯片很可能不对外单独销售,未来阿里可能作为系统集成商去给客户提供一些加速平台服务,目前这款芯片暂时看不到任何的新内容。

3)百度的昆仑是一款推理芯片,也不适合于大模型的训练,未来需要做大的升级。。

4)沐曦做的芯片,是标准的 GPGPU 架构,而且指标接近 A100、H100,所以未来也有一些可能性。

5)寒武纪:训练能力不错,但是性价比有待提升,在内存空间、计算能力、片间互联技术等也需要持续迭

代。
6)燧原:跑不了训练,但是可以跑推理。

7)壁仞科技:未来也有机会,它自己最新一代的 BR100 受美国禁令重新设计,推迟了上市时间。

8)海光:海光的 DCU 叫做深算一号,深算一号是 AMD 授权的第一代 GPGPU 的架构,整体的性能相当于英伟
达的 MI10,是可以跑的,唯一的问题就是性能、性价比。

国内算力芯片在人工智能应用中的问题:

1)国内的训练产品跟 A100 相比,大概还有一到两代的代差距离,英伟达下一代 B100 就要推出了,所以代
差还是一直存在。在主流的应用场景中,顾客都会拿产品去跟英伟达做比较,那么国内厂商必须要有相对
英伟达一到两倍以上的这个性价比优势,才能有机会去进入到一些传统客户的市场,这是一个很高的门槛。

2)互联解决方案:国内现在没有互联解决方案,大部分东西都是开源的 CCX,CCX 是一个开源的方案,但是生态不好,而且整个性能未来的维护也都不好,所以国内缺乏互联的解决方案。

3)华为、百度、阿里巴巴、腾讯都有自己的框架,他们的框架都是封闭不对外的,所以这也会在某种程度
上影响到整个国内大模型未来发展的市场。

4)产品的研发能力:国内芯片的很多核心东西都不是中国企业能掌握的,所以这些都是未来芯片发展当中的一些需要考虑的问题。

建议:
Chiplet 在中国能某种程度帮助解决现在算力的代差,所以有可能在中国会发展比较快,国内的封装企
业在 Chiplet 上有很好的解决方案,Chiplet 在短期的两三年之内可能不会让中国的算力芯片和国外的代差
拉开特别大。



人工智能产业的机遇及挑战

人工智能的模式包括三层:基础层是算法、数据,中间层是垂直化、场景化、个性化的模型,最上层是应用。研发国内自主的类 ChatGPT,

需要:1)数据和算力,需要的英文语料和中文语料都是海量的,维基百科英文版占它所有语料的比重不到 6%,中文的语料更少、大概不到 1%,训练如此大的数据集就涉及到算力问题;

2)训练好一个模型以后,能够展示出来的交互模式尚不得而知,其实 ChatGPT 本质上是一个语言模型,但是它具有交互能力、多轮对话能力、编程能力、思维逻辑推理能力,而国内正在研发的模型交互模式尚未可知;

3)在人才数量上,中国并不落后,但在顶尖人才、创新人才的培养上,与美国还有差距。各家巨头公司也正在大模型的上下游产业中加速布局。就目前国内在做这方面研究的机构和公司,一是百度的文心一言,另外前段时间复旦大学邱锡鹏团队研发 MOSS 原型,已经开放内测,但是最近内测又关闭了。

ChatGPT 从学术界出圈,让民众、资本对通用人工智能的可能性有了新的想法。ChatGPT 正式宣告,AI 的应用模式已经从判别式转变成生成式;AIGC 代表着向强人工智能的迈进,将给产业化应用带来更多的可能;
中国的科研机构和科技公司正在加紧研发类似的语言大模型和 AIGC 技术。
以美国为首的西方国家正在从数据、算力、应用上限制中国前沿 AI 的发展。去年下半年,英伟达两款高端芯片 A100 和 H100 被禁止向中国供货;ChatGPT 在国内没有办法正常访问;DeepL 这款工具由德国公司开发,免费版本对中国用户开放,但是专业版本不开放,对我们国内有一些限制;至于美国 AI 产业的技术能力和中国技术能力的对比,美国的算力、算法是强项,应用较弱,中国应用做的很好,但是原始创新的算法、高质量的数据相对来讲是短板。

从政策维度来看,人工智能一直是国内一个非常热的关键技术。

上海的三大支柱产业包括了人工智能;十四五规划强调也要加快数字产业化、培育壮大人工智能;去年七月份颁发了加快场景创新,以人工智能高水平应用促进经济高质量发展的指导意见。无论是国家层面还是上海市层面,对人工智能(包括技术、产业应用)高度关注,给予了非常多的资源。我国目前已投入运营和在建的人工智能计算中心达 23 个,分布在北京、上海、南京、杭州等多个城市,当然未来可能会在四川、青海、贵州逐步去新增部署一些算力中心。

AI 产业的机会

1)大模型促进 AIGC 产业:大模型时代,以 ChatGPT、Dall-E2 为代表的大模型表现出了惊人的“涌现”能力,即随着规模的增大,大模型产生出小模型没有的能力,大模型实现 AIGC 的效果具有颠覆性意义。AIGC进一步发展一定会代替社会上很多已有的工作,例如:低端翻译,不具备架构、整合、创新能力的程序员,等。AIGC 未来在影视、文化娱乐、低代码开发等产业会产生很大的冲击和变革。

2)ADAS 辅助驾驶产业大力发展:无人驾驶是未来非常重要的一个方向,尽管现阶段自动驾驶可能还是局部、场景化的,但是这个趋势是不可逆的。以场景为先导,自动驾驶全栈解决方案提供商将分批实现商业化,逐渐向更普适的场景推广。中国具有广大的新能源汽车消费市场,数据量和路况的复杂度具有优势。同时随着 L3 辅助驾驶的普及,自动驾驶的安全性测试、鲁棒性测试及仿真测试的有效性将会进一步被重视,逐步规范化,车路协同技术将成为高等级自动驾驶背后驱动力。

3)AI 上下游产业萌发生机:大模型无法实现边缘部署,其背后云计算支持将不可或缺。国内现在希望能掌握高质量的数据,因为数据对于 AI 技术发展非常重要,例如 ChatGPT 的回答有一些错误,是因为有些数据没有被很好的确认和清洗过。

4)AI 赋能智能制造:智能制造就是未来,人工智能在制造产业上应该有非常大的机会,华为、腾讯云都在布局工业质检、工业机器人等。

AI 技术目前面临的瓶颈及挑战。
1)算法层面:ChatGPT 不等于 ground truth,也就是说 ChatGPT 输出内容不一定正确,人工智能算法本身还是存在着黑箱问题、可解释性问题,这导致 AI 应用真正落地,尤其是在一些安全性要求特别高的场景中,还是会碰到很多挑战。

2)大模型的瓶颈:大模型技术上也有很多问题,就比如国内高算力芯片相对落后,而大模型的训练需要大量算力,所以也存在数据积累不足、缺乏可解释性与鲁棒性等问题。

ChatGPT 可能是未来强人工智能的一条路线,但是更有希望的可能是具身智能。将具身智能跟大模型结合起来,是更好的一种可能性。ChatGPT 发布以前,大量最顶级的科学家都在做具身智能:现在的智能都是旁观型的标签学习,给他大量的标签,从标签里面去学习概念;但事实上人类不是这么学习的,更多的是实践性的概念学习,与整个物理世界去做交互的过程中学会识别概念,所以旁观性学习跟实践性学习结合起来,未来机会可能会更大,具身智能可能是通用人工智能很重要的一个途径。

作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
海光信息
工分
4.81
转发
收藏
投诉
复制链接
分享到微信
有用 4
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
暂无数据