登录注册
详解特斯拉Dojo和FSD V12
金融民工1990
长线持有
2023-10-24 21:38:51

1. 特斯拉的云端算力和技术芯片

(1) 特斯拉的云端算力

特斯拉的云端算力是其两大核心业务之一,也是其成功的关键。过去,特斯拉的算力要求并不高,只需要海量的视频数据去做训练即可。但随着技术的发展,特斯拉对算力的需求越来越高,规划目标是到明年四季度达到100亿plus的结算率。

 

(2) 特斯拉的技术芯片(Dojo芯片)

特斯拉推出了一款名为低旺的技术芯片,该芯片是特斯拉为了发展AI而打造的超操作中心的核心组件。低旺芯片具有性价比优势,可以替代英伟达的A100芯片,在构建100亿plus的云端超算中心上可以节省超过65亿美元的成本。

 

2. 芯片自研的成本和优势

芯片的自研成本较高,且需要公司自身需求量足够大,同时芯片设计迭代能力要跟得上市场变化。特斯拉的自研芯片资源只有需求量最大的几个玩家才能推动。同时,相对于a100芯片,特斯拉的低旺芯片具有性价比优势。

 

3. Dojo操作中心的技术参数

Dojo操作中心是特斯拉用于自动驾驶服务的超操作中心。它采用了大模型算力,通过大算力集群密度、通讯捷径和优化编译器来提升效率。整个Dojo操作中心由10个机柜组成,相当于华为一半云端超算设施的算力水平。每个机柜里集成了300个低旺芯片,整个操作中心的总算力接近1万Top。Dojo的带宽相当于神经网络芯片级的io带宽的两倍,通过特斯拉独特的封装技术实现了高带宽和低延时。整个操作中心的发热和通信效率得到了改善,并且具有较高的芯片设计能力。

 

 

Q&A

Q:Dojo的操作中心是如何建立的?

 

A:Dojo的操作中心最初是为了发展AI,专门打造的超操作中心,旨在为自动驾驶服务建造。其构成包括了大量的芯片集群、算力集群密度、通讯的捷径和优化编译器。整个机柜共有3000个低旺的芯片集成在一起,集成程度是超过一般商用机柜10倍以上的,算力集群密度足够大,通讯的效率也会比较高,同时还建立了一个通讯的捷径,这些设计使得整个Dojo的操作中心可以在整个计算过程中提高效率。而整个芯片设计则是由北美的顶级芯片架构师设计,基于迪旺芯片,集成了354个可用的多折扣,单芯片可以达到362套的算力水平,在16位训练精度下,比特斯拉在车端的fsd的单科77套的算力有非常大的一个提升,甚至比英伟达奥运单科254套时算力都还要更高。Dojo的操作中心可以看做是一个集成了大量芯片的超大算力集群,最终的目的是提升整个超算中心在算法迭代中的效率的问题,并可以达到1.1亿plus的创业的水平。

 

Q:公司在集成化设计上的能力如何?

 

A:特斯拉在集成化设计上的能力非常强,在整个工厂的设计、整车的电子电器架构的设计、汽车电子产品的设计、整车结构件的设计以及整个云端Dojo的设计都是集成化程度非常高,提升整个效率,同时去降低成本。特斯拉的工厂的设计类似于芯片分区的设计,使得整个组装线的效率最高,并且整个Dojo相对于原来的其他的超算集群,在整个集成化的一个设计,其实特斯拉的集成化设计能力是非常强的。

 

Q:公司如何实现端到端的大模型?

 

A:特斯拉的v12是一个纯粹的端到端的黑盒的大模型,里面是没有关于感知规控决策的这一套模块化的逻辑在里面的,马斯克在VCR直播的过程中也一直强调认为这里面其实是没有任何工程师去教他去做任何的一个识别,所以特斯拉的VCR就是完整的黑盒的端到端的模型,解决所有的问题。特斯拉的v12包括了感知规控、决策执行所有的这个模块的大模型的一个把它揉成一个新的大模型,但是里面还会有各种各样的感知规控决策的这些模块,只是把这些大模型的不同模块的大模型融合到一起,变成一个大模型而已。

 

Q:公司的端到端的模型在实际应用中表现如何?

 

A:特斯拉的端到端模型在实际应用中表现很好,并且在某些场景下表现比较超预期。举例来说,特斯拉在红绿灯里面面对某些情况能够做出正确的决策,比如红灯绿灯的决策因素可能会包括它前面是否堵车等,而不是像人类一样遵守红灯停绿灯行的规则,这是因为特斯拉的算法不是根据人类的具体的逻辑去做决策的。但特斯拉的特别场景的问题表现也有低预期的情况,比如跟红绿灯比较相关的场景。不过这可能是因为VCR是一个纯粹的端到端的模型,就类似于人类的大脑,它就是一个黑盒,做决策不是根据人类的具体的逻辑去做决策的。

 

Q:公司在自动驾驶领域取得了哪些重大进展?

 

A:特斯拉在自动驾驶领域取得了一些重大进展。他们通过采用端到端的大模型进行训练,完全不依赖于人类对交通规则的设定和编程,而是依靠数据训练模型自己形成认知和规则。这样的转变使得特斯拉的软件规模大幅缩减,架构精简效率提升。然而,由于这些规则不再是人类告诉它的,而是模型自己形成的,对数据和云端算力的需求大幅提升。因此,特斯拉加速部署云端算力系统,算力投资也大幅增加。根据特斯拉的规划,他们计划在明年年初达到10万台的商业水平,实现超过33.3亿plus的商业水平。这种对算力的需求增加,使得多算力系统的降本增效效应逐渐显现。长远来看,特斯拉在自动驾驶领域具有领先优势。

 

Q:公司在自动驾驶领域的表现如何?

 

A:特斯拉在自动驾驶领域中表现出色,已经积累了大量的海量数据,并且具备强大的软件资源和应用能力。特斯拉在v11时代接近l4级别的自动驾驶已经实现,而v12版本将进一步实现端到端的大模型。特斯拉的自动驾驶算法优化和SD算法架构将协同作用,从而实现通用人形机器人的出现。特斯拉的战略规划中,算力规模预计将达到100亿PLUS的水平,这将推动自动驾驶算法的进一步提升。

 

Q:公司的自动驾驶与竞争对手的差异在哪里?

 

A:与竞争对手相比,特斯拉的自动驾驶具有更高的复杂度和难度。竞争对手目前主要在特定领域进行特定工作,而特斯拉力求在通用领域实现较好的人工智能应用。特斯拉的云端算力部署规模为100亿PLUS,相较于竞争对手较小的数据量和算力消耗,特斯拉的自动驾驶在算力方面具备较大优势。进入端到端的v12版本后,整个自动驾驶行业的竞争格局将出现变革,小公司可能难以承担这样的竞争压力。

 

Q:自动驾驶行业的发展前景如何?

 

A:进入v12版本后,自动驾驶行业将迎来技术进步的加速和竞争格局的提升。自动驾驶的大模型能力将明显提升,实现向l4l5级别的自动驾驶。整个行业的竞争将进一步加剧,小公司可能在淘汰赛中面临淘汰的风险。预计在24-25年之后,自动驾驶行业的淘汰赛将变得激烈,小公司可能要参与后半场的竞争。

 

Q:关于华为和特斯拉的自研AI算力投入和云端算力储备,请问它们的优势都体现在哪些方面?

 

A:华为自研的麒麟芯片系列在云端超算的能力和基础设施构建方面优势较大。华为在智能手机、智能座舱和自动驾驶等领域广泛应用,对AI算力的投入也很大。在国内,华为的云端算力储备居各组织之首,因此华为在这一领域的优势会逐步显现出来。

 

Q:那么在芯片自研方面,特斯拉有何打算?特斯拉的自研芯片将如何影响行业?

 

A:特斯拉计划推出自己的芯片,包括车端芯片和云端芯片。特斯拉后续还将推出自己的VR版本和云端的大帅芯片,具备较高的性能提升。特斯拉自研芯片的投入很大,一款芯片可能需要10亿美元的研发投入,此外还需要大规模的云端超算中心投入。如果技术迭代不够领先,投产可能会落后,前面的投入可能会打水漂。因此在芯片自研方面,要么跟随行业最领先的玩家使用解决方案,要么自研并具备足够大的需求量和强大的技术能力。特斯拉自研并量产之后,可以在多个领域复用,从而降低成本,特别是在自动驾驶领域,自建的成本更低。

 

Q:未来的自动驾驶发展中,云端算力和车端芯片的作用分别是什么?

 

A:自动驾驶的算力消耗主要在训练阶段,推理端是将模型剪切移植到车端,实时进行推理。未来算法成熟后,整个云端算力消耗会减少,云端算力的投产也可以通过算力租赁的方式进行。自建的成本较低,但需求量越大越有优势。特斯拉做到了需求量足够大,并且在多个领域复用,整个投入产出比较高。如果仅仅只是自动驾驶,投入产出率相对较低。

 

Q:为什么近期大家对华为和特斯拉的关注度提高?

 

A:华为和特斯拉在自研芯片方面的投入和云端算力储备使得大家对它们的关注度提高。在芯片自研方面,华为最像特斯拉;而特斯拉在多个领域的复用让它成为一个受关注的公司。


作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
凯中精密
S
比亚迪
S
天汽模
工分
2.04
转发
收藏
投诉
复制链接
分享到微信
有用 1
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(1)
只看楼主
热度排序
最新发布
最新互动
  • 一刀入魂
    热爱评论的老司机
    只看TA
    2023-10-27 10:49
    哪个公司的调研
    0
    0
    打赏
    回复
    投诉
  • 1
前往