登录注册
AMD VS 英伟达 竞争与挑战
韭阳真經
无师自通的老司机
2023-06-04 17:44:48

20230604_华创amd英伟

说话人1
带来了对 GPU对于底层算力的一个极大的讨论。然后同时的话像英伟达在上周以及前一段时间也发布了2024第一采集的这样的一个报告,也大幅度的上调了预期。在上周的话台北的会议上也发布了多款芯片产品,对于这一块的话,我们从全球的视角,从国内的视角,从横向竞争的角度来看,我们专门开了这么一个电话会,也是希望可以从 AMD从英瑞达从产品从市场的角度对上帝的底层做一个讨论,做一个讨论。


所以今天的话我们专门邀请到了我们领域内的在龙头的全球龙头的汽车厂商的艾瑞克专家来给我们带来一个分享。


艾瑞克专家的话,老师的话是16年就在全球的这样龙二龙三的这样的一个厂商担任 IC设计和验证相关的工作,现在的话主要负责GPU相关性能的一个 GPU的架构相关的一些工作。


我们今天的会议的话就分为两个部分,首先的话我们有请艾瑞克老师对于这个体系对于包括这个MR300 200相关的一些最新的产品的情况,包括横向的一些比较,做一个5分钟左右分享,后面的话我们会把时间留给线上的各位老师,我们进行线上的一个交流和讨论。


那么下面的话有请任老师。Okay,好。

说话人2
谢谢主持人,能听到我吗?

说话人1
可以听得到的,您说。Ok。

说话人2
对,其实agpu的确这些年是变得越来越火,特别是在去年下半年 GPT开始以后,GPT突然火起来以后, GPU的算力包括HPV以后的走向其实受到了非常多的关注。


其实不管是对mvd还是对于MD,其实在几年以前大概五六年以前就开始,甚至在对微电来讲会更早去部署 agpo包括由于HPC的计算领域的 GPU的一些部署,AV VI MD其实在大概8年以前开始做相关的部署,那两家公司也是在产品的迭代上面的进行了大规模的不同建筑微型的迭代,目前发展到现在,其实对于video来讲,最新的产品单客我们不说系统,那就是a版和c版,对MG来讲就MS300。


其实市场的需求其实目前来讲,因为MD其实在过去在mi300出来之前,其实主要的是面向市场的产品是mi200 250,它的性能其实跟 v点的c版和a一版其实有一些差距的,不管是在我们要算一个p64或32和16,或者是我们说一些整形的计算1.8等等都是有些差距,但是差距在MS300出来以后,这些是有一些改变了 MS300在单个算子的性能上面相比较雪板是有一定幅度的提升。


对于单个技术来讲,其实提升是在25~30%,那在比如说2~4颗GPU的协同,大概算也会在50%的这么一个提升,在4~8克的小集群上面大概需要两倍的性能的提升。


这是目前就是说在单个GPU的现状上来讲的一些性能的比较。


当然对于MD何为的市场来讲,因为劣势很早就开始布局这个市场,并且他们也有了自己的 ecosystem,superstate也非常的兼顾,所以目前来讲市场的占有率方面,特别是在LG p或者是说在不管是群里还是influence方面,AMD和一点的市场的规模还是有比较大的差距的。


这主要是原因是说一个是在m300出来之前,m也在硬件上硬件的性能上面跟MV也是有一些差距,另外一个是特别是在软件的搜索了生态上面,因为上层的模型它其实大部分都基于酷大的,不管是提供了上层的给白色 to,就是暴露出来的公众号的to,或者说中间的加速的 library,还是说下属的的做编译的出口品牌的车,或者是包括继续扩大的programming model等等这个方面,上层的模型都是基于这一个完整的software来进行开发的,所以其实是会有一个很大的依赖性,突然就是说在不改变任何中间level的情况下,从上传的模型切到 AMD的下面的硬件上面来讲是会有一些风险的,所以这也是为什么过去几年厂商其实不太愿意说去转AMD,但是这两年有一些变化,原因是AMD的 SARS其实能够很好的,不管是对任何算子的加速结构或者加速库都可以很好的去兼容,不需要去上层的模型做任何调整,可以去很好的兼容媒体的扩大的这一套所有的费用,包括硬件的性能现在有一些提升,所以整个情况是有一些变化。


对未来来讲的话,其实以前我们HP大部分是用在做确定做大规模数据或者是模型的确定上面,但是我们现在整个ATV或者是GPT的兴起,包括未来这个趋势肯定是会越来越往GPT的方向去发展,然后给我们做influence,就做闺蜜的需求会越来越高。


对这个是未来几年的走势都会是往这个方向去发展。对,这个是整体的就是说包括agpo从什么样的发展,从未来的趋势,还有就是说AMD和vdr在在这个架构性能还有市场的一些简单的比较,我这边大概就做了这么一个包括一个介绍,看主持人看那边接下来是什么样的一个流程,对。

说话人3
好的,谢谢艾瑞克老师,然后我这边的话我是皇上计算机的研究员魏宗,然后我这边的话先抛砖引玉问两个问题,首先的话就想请专家这边简单的介绍一下 mi300的推出时间,然后它的产能情况以及预期的价格。

说话人2
 Ok一个问题来m300它的推出时间就是m三板目前还是在和大的卡斯特摩在做内部的大集群的一个q0的过程,在小集群比如说一片2~4片4~8片,这样的postdate,我们已经有非常完整的一个phones,dayle,但是在大集群的比如说在英格兰为model这样的一些群体上面,我们还有 iPhone上面,我们还在和我们的他是怎么做大规模部署了这么一个秋年的过程,这个部分得到我们接下来会在未来的几个月会有很多的数据出来,至于在市场上面,因为现在还在大规模集群,还在做一个推论过程,MR300面向客户面向市场或者q4, q4正正式的去瑞尼斯给客户去做商业的部署。


产能的情况,m300我们的q4预计目前是会有大概10万片的一个配套, MS300的定价目前还没有完全定下来,但是会跟我们以前的定价策略是会保持一致的,是会走性价比,所以价格应该不会比h8要贵。

说话人3
明白,专家这边追问一个问题,就是mi300的话,它能否供应中国市场?

说话人2
M300是没办法供应中国市场的一位经理,不管是因为今年是要l接口和肯定的肯派,恐怕别人提两个,一个是l要大于l如果超过600给个不好意思和second或者是计算能力超过了4800Top,那是没法这两个调整满足是会受到今年的一个限制的。


 M300是远远高于这两个限制的,所以但是我们也知道很多群,我们对于中国区会有一个SDA的,就MS388会做一个主要是会在l上面做一些 reduction,然后去定位给中国的客户。

说话人3
对好的,我这边第二个问题是 MD GPU国内的相关合作伙伴有哪些?

说话人2
我们现在其实mic的其实产品我们和国内是有非常多的一些联系的,国内有很多客户非常感兴趣,然后所以我们也希望说尽早的尽量或者今年q4也同等的去推出 MIT的目前国内的大的厂商主要是阿里、百度和腾讯,还有白登之间都非常的感兴趣,当然还有一些其他客户比较有代表性的就是这些,对。

说话人3
好的,谢谢专家,然后会议助理播报一下提问,大家好。

说话人4
如需提问电话端的参会者,请按话机上的星号键再按数字一,网络端的参会者您可以在直播间互动区域内文字提问,或点击旁边的举手按钮,申请语音提问,谢谢。大家好,如需提问,电话端的参会者,请按话机上的星号键再按数字一,网络端的参会者,您可以在直播间互动区域内文字提问,或点击旁边的举手按钮申请语音提问,谢谢。

说话人1
好的,我们看了一下深圳这边有个投资者想问题,这个问题是说叫推成和拍拓,对于扩大的影响有多大,如何评价后续扩大可能面临的挑战?


这是相关的背景是说拍创新的支持更多的GD厂商,再加上openai对推陈的搅局,因为他手中的力气扩大,配件都能在,这是网上一个媒体的一个背景,现在也是想跟艾瑞老师请教一下。

说话人2
你可能拍下去对酷达的挑战,因为其实以前不管是特斯普罗还是拍太时间和cool,他以前是绑定是非常多的,然后目前其实有更多的像m.com,其实也可以去兼容,去完美的去支持这些不同的商城的一些迪拜快乐兔,还有控价,实际上来讲的话肯定是会有一定的影响的。


但是还有酷达的护城河,酷达它基于自己的主观是说它跟MV的下面的底层的硬件,还有他因为像硬件的上一层是绑定的Java,它的Java其实基于库的 Java,让time的一些一些跟硬件非常贴合的一些东西,然后再上层就是它的product,还有它的很快乐的错等等。


还有上面比如说我们说加速了library等等,还有迪拜的货车在再到上层就是我们的表k线,所以 SARS其实是一个非常多层级的这么一个生态。


所以虽然说即便你比如说你排放许可等等的,会被确实报了其他厂商的 com,或者是其他厂商的一些SARS的一个或者是一些库。

说话人5
但是对科大来讲。

说话人2
它有它自己的先天的一些优势的,就整个你比如说你模型上层的模型,你要去在每一家卡上面做加速,你必须要走完他整个的手表是这个东西你完全的去移植到比如说去移植到另外一套了双方上面去,一个是说稳定性,第二个说性能能不能达到。

说话人5
当然目前来。

说话人2
讲的话,这一套东西 AMD是可以去完整的去兼容整个酷达的平台上面的所有的稍微这个里面每一季的不管是上升的图,还是never开始编译器还是编程模型等等。对,所以为这个东西来讲的话,对于酷达来讲,它的护城河当然还是非常坚固的,但是已经不是说完全不可以替代了,目前其实AMD已经在做了很多这样事情,就是会去去跟上层的客户去阿斯特摩去去说服他们,就是你的上层模型不需要做任何的改变,你的参数也不需要做任何改变,你直接可以迁移到AMD的 hello上面来。


com双双CK去完美的去compatible,双手这个里面每一个level的成绩里面的东西,然后高并且我的家数的库并不差于你大那边提供的加速库,不管是做数学计算或者AA计算。或者说并行计算等等。


还能保证说在稳定性的情况下保证的基础上还能对你的性能有些提升,因为我的硬件如果说做得更好的话,对,所以现在是有越来越多的客户,因为不想说被1.1家深度绑定,那是会朝这个方向去做一些迁移,对,所以总体来讲枯打的护城河已经不是那么的坚固了,那是会面临来越来越多的挑战。


如果我们说驾驶万一哪天对于英特尔来讲,英特尔也在做HP,如果他也能比如说一个他的上课是一个能够去完美的去跟拍了,或者说在自己的技术上跟他怎么合作去build了自己的以后。

说话人5
这种。

说话人2
肯定会有进一步的影响,包括等等,如果未来有其他的更多厂商去做这样的事情,对总体来讲说以前酷大师完全是坚不可摧的,因为深度绑定所有人,现在并不一定是这样了。

说话人5
好的。

说话人3
谢谢专家会议助理播报一下提问。

说话人5
好的,下面请尾号5590的开发者进行提问,谢谢。

说话人6
专家你好,我想请教几个关于 m三板的架构的问题,第一个想问一下他 GPU和CPU之间,我看到他好像是用三d区块的去做的封装,然后这块的话它这些合金的速度是挺快的是吧?


说是可以到2.5,tmb每秒,这个是先能解释一下是怎么做到的。


然后第二个是想问一下,就是说它每一个芯片队之间的交流,是因为像 QQ这边是用的 m link,它可以加256个芯,对相互之间可以达到900g的这种芯片之间的互动。像这款m300是有没有做到,或者说m300怎么做的,以及m300我没有看到它能扩展到多少核,这块没写得很清楚。然后以及它和芯片之间的 cash以及核之间 cash是怎么去交互的,能讲详细一点吗这个架构?

说话人5
 Okay。

说话人2
首先关于您讲的 CPU和GPU不在一个盒里面,它不叫m300,它是s和300,它是一个CS,比如说 APD之前有硅光伏和HC版,他其实做的事情就是把最多能够占到72个 arm的库和h百封在一个CS里面。


我们回到AMD这边的架构,AMD这边架构就是说应使用300,其实他是把三个一个侦破的或是 MD最新的GPU最新的CPU,然后他说把33个侦破的quir,每个quir是吧核所以他总共是24和CPU和6个 MF300的峰在一个区分里面,然后做成一个system。


因为AMD其实在这一块是有它的先天的优势的,因为AMD以前它就一直在做apuapu其实管CPU和GPU的一个带上面,他们互相会去需要这个on去的,不管是drm或者是安全k就是 HDM,所以他 CP和GPU的通信速度,AMD在业界应该是做的最好的,因为不管是对英特尔来讲,他们也没有说这API都是独显或者是 dzic的CPU技术,GPU的VD它就describe GPU narr,apu它是基于arm的,它也没有做到一个上面,但是对m的来讲,x86的 CPU和不管是一些基于那一代来说,Ida万点去 dagpo都可以和cpo封在一个袋上面去做成一个apo这个也是AMD在PC市场上的一个主要卖的一种产品。


大回到就是说mi1-300把3个增幅了,库增幅了大概和6个, m三保留放在一个上面,所以在 CPU和GPU交互上面,MD采用的也是同样的一些apu的 solution,所以它中间它的是它们的慢慢交互是在同一片的 drm上面,所以他们的传输速度包括CPU访问GPU的内存区域会是完全是可以做到非常快的,这也是以前APP一直做的事情,回到m300一颗单的mi300和mi300,就像通信说的 video还是有 NB, AMD同样也有自己的偏见,互联的技师叫一般的发布力克,叫is m300,现在在多克通信上面,它的田间互联的速度也能够达到9003%,可能,所以基本上和h100来确保它如果采用了PCI的接口,它其实是能达到600个版,但如果是采用 x他们做就是NB宁可的技术的话,哪怕是能到了900,第一个白色特斯拉跟这也m300的片子其实和h100是重要的,就是和x叉xm叉x叉x叉m做了这么一种接口,上面的能达到偏向股东是一样的。


然后第三个问题是什么问题?能重复一下吗?

说话人6
还有一个我想问一下,就是说我看下来跟哥斯和克之间的差别就是在显存的这是一显存的容量上是不太一样的,对吧?

说话人2
 Ok这个问题是这样, s300它是33个侦破了大概横6个m300的在中间边上是封了8个h比mx1的大,显存的容量是比这个 v点是要大不少的,v点其实在hr上面它的其实80这个但是MF300,他其实每个html css的,所以是24GB,因为他是封了8个,所以 s300它是能达到192GB了,然后他最大的 mobiles是能达到5.2t的suc的,所以它的显存的容量是比续版是要大很多的,因为h版的话其实只有5个5个c的5个显存,然后每一个是16GB,所以显存的容量上面是有很大的,理论上对h板它是可以扩张的,h板理论上它是可以达到理论上是可以扩展到6个,然后每一个容量是增加了2424GB的,它最大能扩展的容量就是144GB,但是s300现在做到了192GB,所以这个上面其实是两边是有不小的差距的,就是instant300这个系统是来目前为止应该是最强的一个系统。


所以这也是为什么在和福姆斯贝塔其实是相比h8的,所以咱们其实是有不小的提升的。

说话人6
但相比 great200的话,他们是号称200能做到600g600GB。

说话人2
对格式后200,其实因为这是新出的,其实我们对它的一个架构还包括它怎么样的去扩展的,还没有特别多的一个深入的研究,后面我们也会去波浪和200的,的确我现在看到的200的一些性能的参数的确是相比较100是有一个相对比较大的提升的,对。

说话人6
明白。好的,我主要这些问题,谢谢。

说话人7
下面有请尾号5428的投资者进行提问,谢谢。

说话人8
专家你好,刚提到咱们的GPU可以兼容酷的,还有然后另外市面上还有不少的这种加速卡,也是号称自己可以兼容的酷打就是做这种生态的兼容上软件开发,还有实际使用的时候会有哪些劣势一点的地方,或者说开发起来会投这种成本或者说什么的?


会怎么样子,就是说它应该也不是一个完美的兼容,它还是会有一些稍微劣势一点的地方,能讲一下大概大约会是在哪些方面,谢谢 ok。

说话人2
AMD现在com SARS这个区域兼容cool,的确对目前所谓的不管是做数学计算a计算或并行计算的这些领域,他的所谓的加速的库,排他上的开发的工具,还有下层的可怕的编译器的模型,还有整个上面是可以对扩大现有的这些算子现有的一些加速库是只可以做到基本上百万核酸的兼容的。


这也是为什么AMD现在可以说服很多的客户去把模型迁到AMD的 mi的系列上面来,是因为整个过程你可能不需要做上层的模型做什么改变,然后下面的性能也可以给你一个正的反馈。


那问题在于说,如果你一直做这么一件事情一直去兼容,其实对于cool来讲,我不管是我上升900块错或是我library或者说compiler错,其实我不会说固定不变的,我一定会去迭代的。


你一直如果是做更powerful的事情,你AMD对双核软件的投入是一直得跟着波罗跟在别人后面去做的,人家做了什么样的改变,或者说做什么加速的library的一些变化,你如果达不到,你肯定是在某些模型上面你肯定是吃亏了,你必须得跟着别人走。


所以这个东西来讲,你短期内是可以做到comparable,但是你让他们来讲,如果你是一直跟着别人去走,跟着别人去分析别人的加速的奶粉,你去做兼容,其实对企业来讲肯定不是一个好的事情。


对于我们说其他的GP级别厂商所可以去兼容库的,其实这个东西肯定是没那么容易的,这里面肯定是有很多水分的,可能在某一种模型上面或者某一些这种加速结构上某一种计算的上面,可能是他们对某酷达的里面的某个library做了一些兼容,当然这是有可能的,但你说对于酷达的一个完美的兼容,这个肯定对于我们说国内的spa在这么短期内是不可能做到的。


m AMD在这个上面其实是花了好多年,大概有六七年的时间来去做这样的事情。


对于另外一个来讲就是说在兼容苦恼这个上面,其实长期的投入肯定是不小的,如果一直走这条路,对于 AMD来讲肯定是不可能说一直走这条路了,所以AMD也在和他是怎么和合作比较紧密的,开始我重新去迪拜了,和自己的双创是那方式什么样会重新和他什么去合作去迪拜了和上面的application。


基于完全的是要看整个software里面的一层一层的 software的工具,还有酷我也是在哪里,然后机遇最后机遇是MD的 mi的 hello上面去做加速,所以这一条路肯定是就AMD来讲一个longtime的 Goh去不了了自己的cistern,然后不再去依赖于说我的库一定要去尽量去兼容你哭了这一条的CCM,或者说少不了眼前,为了去争取一些客户或者说去占一些市场,因为我的硬件已经做得很好了,sorry,然后我肯定是需要去想办法让你用起来,我短期内我也不希望客户能够需要花很多成本去做上层模型的改变了,去做上层模型的更多的Tony或者是说去挑战等等,我肯定是说我希望我可以保证你什么都不用做,你不用投跟software解决f了,我就可以迁过来就可以直接用,并且能稳定,而且性能比较好,这样子才能说服别人去签到AMD,去占有一定的市场。


长期来讲 MD卡一定是会重新丢了,DC生这个也是MD一直在和大的卡斯姆在合作的方向。对Mimi对韩剧的肯定是往这个方向,一个是说走前面那条路去做肯拍的话,另外一个是一定会去丢大的自己的一个CM。


对,这是目前的策略,回到就是说很多厂商说自己可以去兼容为点,这个肯定是不是很准确的,或者说是有一点水分在里面的,可能对某一种计算的库做到一定兼容,但是整个library因为科大里面library是非常多的,不管是做数学的,所以计算出AI计算,做并行计算,做国内期货作为流等等,很多的库不可能说这么短时间内做到,甚至你如果投的人不够,这个是很难做到。

说话人1
好的。

说话人7
谢谢。下面请尾号0625的仓储进行提问。


谢谢专家,您好,能听到吗?

说话人2
我可以你说。

说话人9
我想正好就着您刚刚的回答再请教一个follow up的问题,就是咱们我非常同意您刚才讲的,就是说长期来看咱们的战略肯定是不能一直跟随NB的,就是一定要做自己的生态,然后你讲的两条线并行,就是一个是我们目前为止为了降低客户的替换成本,我们还是需要去对库亚生态做一个兼容。


然后另外我们同时也得发展自己的 Welcome生态这两条线,大致您能不能再帮我们详细讲解一下它是怎么进行的,比如说两者之间有没有一个可以共用的地方,还是说我可能做这两件事情的团队也完全不一样,然后可能客户的报价比完全不一样,比如说我们要去建自己的包括生态的话,我们可能需要跟客户新做的一个方向去一起去开发,就这两条路,这其实是没有交叉和可以共同发力的地方的是吗?

说话人2
Ok我觉得这个问题挺好,就是说再从技术的角度来讲,中间因为不管是你去做comparable,或者说去重新丢掉了自己的一个非常中间有卡门双方上面这些,我前面讲到那些成绩主要不容易收费面包头跟拍拖或者来不及,5%整个都是要去,不管是做兼容或者说开发基于直播的都会去做,但是这个中间是有很多平台不允许的,互相比如说你好,那边是在说话吗?可以,那边可以没有,等一下吗?

说话人9
不好意思,我这边可能有点乱。

说话人2
对那边可以没有,等一下我听到很多声音。

说话人1
Ok可以的没问题。

说话人2
ok我继续。刚才说的这些大概是为了我的收到,我们都是一个一边是要去跟拍管理点,另外一个是Bot的。 Ecosystem其实中间是有很多Clarridge的,比如说我的average区级的,比如说我特别是最重要的就加速了这些库,比如说数学数学计算a计算或者是做并行阶段或者做v9的等等这些库,去兼容 V点的时候,我们也可以有很多中间的这些common的library,还有com的一些加速的算法等等是可以的。


抽出来去作为我的去丢的这些eco c上面的里面的内容,所以中间有很多技术方面的东西,就是我们的API Cocom的方式,com的库是两边试点单位,我可能就是说你基于库的上面的它一些加速结构的上升的模型是一种什么样的操作方式,然后去 huo你这个点的比如说做是计算的一些加速的结果,我这边同样我要去撕破脸的,我在给库这边的APA是帮助enface,我是要去是 point这个方式了,但核心的很多里面的东西我可能还是进入AMD自己的,对于我mi的比如说我的并行度会更好,我的QQ游离的更多,我怎么样去派去,我的workload到下面去可能会对于我mi的卡会更好,那里面的核心的方式是跟底层的硬件的结 in,the section还是去MB这个东西,但是我就说我的库去兼容你上层的三字模型的时候,我可能是报了一个face,然后去兼容你的就好了。


所以说最核心的里面去基于mi的里面的加速结构和硬件的应该算是非常核心的,这里面的一些库的加速,还是是可以never互相是通用的,那只不过说暴露水平的faced的API是要去一边是为点,但对于我毕业了我自己的ecosystem我就不管我不需要去兼容你了,我想怎么定就怎么地,我只要和上层的卡是什么application,然后需要爱好就行了。


对所以这个东西里面核心的这个是对m来讲,这个算法是一个大的题目在做这件事情。因为里面和硬件的session这部分最交互最紧密的也是对于AMD硬件调用最好的这部分,因为是common的是可以来为这两边的,所以这个是目前的一个技术的这么一个路线。


说上面就是说产品线上面的话,你怎么样去让6w自己的eco c上面使用新的抽大了还是什么这样,这个是我们有很多自己的开始没有关系很紧密的大潮,像max或者是matter,其实关系都非常好,这个事情我们也不需要新的抛大,会怎么做?


因为这件事情你是需要去在上层的PRO外面还是上层的k线上面做很多重构 v底妆等等这些东西,所以这条路线对m来讲,其实包括安全的apple也是比较大的,因为你需要去和开发商一起去合同去开发这些,你需要投入很多的工程数据,帮助他怎么去在k线城去做很多Tony,甚至去帮他们去重构代码等等那位。


对,所以回头就是说你不需要有不同的product,但是你需要投入很多的人去练去帮卡什么,他有意愿去给予你去表达自己的system。


B的b了也不是这么贵,你需要投入很多的刷盘经验和他们的人群来一起去做,甚至很多时候你要帮他们做很多他们本该做的事情,但是毕竟是你想去比如自己的学生,对,所以这个就跟以前。


对于软对GPU一样, VD和AMD想在革命GPU上面去说服下面的游戏开发大上去,基于自己的hello能去开一些性能或者是去上升的program做一些改变,能够自己在自己的机票上面跑分跑出来帧率高一些, mmd很美点都会去派驻很多的SARS,你要去到游戏的厂商里面去帮助他们去去游戏里面一些组件或者是一些program model去做一些改变,然后最后会在自己的给你的卡上面跑出来的更好的帧率,同样的思路,对这是不同的产品而已,做不到就是这里。

说话人9
明白,感谢专家讲解的非常详细,我再追问一点,对于咱们大型的CC客户来讲,我理解他现在可能对这些加速卡或大范围加速卡的需求肯定还是在大模型方面对吧?


就是这块我想试图去理解,比如说咱们现在在到咱们自己的 FC的这个过程和客户合作的项目都是什么样子类型的项目,比如说是一个可能是它崭新的项目,还是说有他以前也有的项目可能我已经有一个达到新客户,我之前是在用NB店的卡,但是他仍然会去考虑,可能在已有的大厦政策里面去开辟出某一些块和我们 AMD去合作。


然后我还想慎重理解的可能就是说,如果比如说我们再看长远一点的话,可能我们的一公司怎么变得越来越强壮,然后客户会越来越想要用越来越多的咱们自己的卡,对他以前的已有的这些大模型以及基于英伟达的GPU去训练的这部分会有什么影响,他需不需要去做一些它的可能转移的成本是有多高?


就这两个问题 ok。

说话人2
对以前比如说运行得非常好的这些大模型,比如说B股全部都运行的比较好了, sorry,对m点来讲去争取客户的方式还是主要是做compatible,在第一条路线上面去做更多compel,然后下层的因为底层的硬件的性能已经非常好了,这是以前现有已经运行得非常随波,并且非常稳定的一些模型或者是application,对一些震荡供应的 application其实会重新去做,去丢了这个以后CS AMD也会去投入大量的上环精力去和他们一起。


至于说对未来如果说MD如果计入的calm,生态变得非常好了,那VD会说对于上市的没去对于业务已经运行好了,是不是会完全去切到新的 Facebook上面来?我的认为是应该不太会,为什么这样讲?其实对于上证的k线或者卡索来讲,其实他并不希望在某一家去投入,其实为什么现在有意向会很多客户有意向说去帮助MB去配合CM,然后其实说不想跟哪一家深度绑定。

说话人5
还是。

说话人2
希望尽可能因为两家其实硬件上面都做了很好,软件上面只要你能保证稳定,还有性能足够,其实我不同的东西跑在不同的上面,其实对于上面的厂商来讲,那也有溢价的空间,所以不会说我会想把我现在运行得非常好的,然后全部切到你新的一个市场当中去,从我的理解上或者说我的预见来讲,其实是不太会做这样的事情的,所以对。

说话人9
明白讲得很清楚了,感谢专家,我没有别的问题了。

说话人5
现在请尾号8609的参会者进行提问,谢谢。

说话人10
你好,我想请两个问题,第一个关于大厂的垂直整合的问题,因为像其他的一些大厂也有在自己做适合他们的芯片,我觉得这个可能以后也是一个趋势,我不知道这个会如果拉长一点的话,您怎么看待就是这种包括MV包括原地以外的大厂,他自己做芯片对于行业的竞争格局的影响?

说话人2
Ok其实挺好的,不管是说国外的大厂,还是我们国内的大厂,其实都在做自己的都有自己的芯片,在研发阶段和失败都有困难心,阿里平头哥,汤尚他也汤尚他也提投了很多水源等等一些沙拉,还有周杰他也有自己的芯片部门在做一些这样的事情。


目前来讲的话就是说的确包括像Google,像马塔相对。

说话人5
他们。

说话人2
也都有自己的芯片研发部门。对,但是就是说目前这些厂商他们更多的是会去做一些替换式或他们自己的模型。什么意思?就是说比如说我上面的Bo,我可能需要达到什么样的一个上面的一个破坏model,或者我这个应用场景是什么样的,我的芯片可能更多的是去未来我这种场景应用场景下面的加速,然后去做这样的这些基于这样的一些应用特定的应用场景下面去做我芯片的研发。


目前来讲的话,对于国内这些startup来讲,其实不管是说在我。


一些产品下面或一些模型下面的算力,还是说我的双方最高,因为我以前的模型可能基本上大部分还是基于 m一点的扩大的,是怎么来去做开发的。目前就在现阶段来讲,不管算力还是这个软件的兼容性,其实国内的厂商做的还非常有限,所以短期内是不会说有什么影响的。长期来讲如果说我真的解决了,不管是上帝还是说我的兼容性的问题的情况下,或者说我能够去在某种合理的算法下面,在某种计算需求,比如说我的就是我数学计算的库的这种需求上,我能做到一定的兼容,或者说因为我自己的芯片,我自己的厂商,我自己的模型是不是在我的Soho的上面,我也能做一些去接口,能够去重新去dvf我自己的接口在某种加速库的要求下面。


可能是会有一些影响,但是就是说这个东西如果它做不到通用,比如说你自己的厂商互联网厂商自己的芯片部门或者是芯片子公司做出来的一些东西,它是没办法做到健忘,它可能更多是公司在自己的某个需求下面就做了要做了这样的加速结构,即便是这样子在现阶段还是跟MV和AMD的 Hello software还是有很大的差距的。


长远来看,如果真的是做了这样子,每个厂商在自己的场地下面只用这么一个小的一个卡能够去去适用于自己的某一个方面的预算的需求是有可能做到的。但是一旦我厂商的商城的标k线想用到其他的方面,你的芯片是为了满足这样需求,那肯定是不可以的。因为你做不到对不同三次不同的加速结构的兼容。所以对于AMD和v这两家公司来讲,其实这个不是并不是特别担心的一个事情,因为它的确它就是为了aigpo而生,其实它的产品就是为了兼容性而生,所以它各种场景下都可以做到,并且它可以很好的做到商用。


对于互联网厂商的芯片部门,它可能没办法商用,你做出来这个产品对于别人的模型或者别人的一些场景下的角色结构,你可能并没办法达到一个很好的效果。


还有这是一个。另外一个就是说这个市场其实包括对 GPT这个星期,然后未来我们肯定会有更多进入ATV AI的需求,能够有能力去做自己的芯片资源或者芯片研发的公司是非常有限的,所以市场上更多的客户还是需要去采用商用的这些通用的这些 aigpo来去完成自己的一些算力的需求。


所以整个市场来讲还是非常的乐观,包括非常的。

说话人5
大的人,所以。

说话人2
可能回到总结一下说对于单个的互联网厂商在某个场景下面,他的心态可能未来可以达到他自己的需求,这个部分它可能是不再需要火车v点,或者说可能需要少部分来v点和MG的卡,但是一旦它上层的应用需要扩展到一些其他的模型或其他的加速结构的需求时候,它的卡可能满足不了这样需求,它除非重新再去抵挡一个卡,其实研发成本也是相对非常高的。


回到商用,她的卡可能只能自己包括自己的 biot的需求。


对我到外面商用的整个市场来讲,可能没有比如说其实很典型的国内像是在那边去做出产品的,我们就说实验科技型它做出来自己的有水体仪器等等,因为他可以给这个他是给腾讯的某个Bo上面可能可以用到一些小规模的故事,但是他想去市场找其他客户其实找不到了,因为它做专用的加速结构来做的卡,所以对这个是未来就是这个东西,他们如果是走这条路线,其实他们解决不了未来商用了这条路。


然后另外一个更多越来越多的不具备自己投入去做芯片部门或芯片子公司的一些公司,它还是需要大量的在APP的未来发展上面,肯定有越来越多公司需要去采用这样的一些到这样的一些卡去做自己的一些不管是商业或者是等等的一些需求的,所以市场还是非常大。

说话人10
Ok明白,我再补充一个问题,刚才也提到 inference的应用场景越来越多,那么这个会对产品侧或者供给侧有什么样的影响吗?

说话人2
对,就是说其实对因为GP是GP兴起在未来几年,我们能预见到的就是说我们可能在应用场景的应用端,前期可能大家还是去年是用的非常多了,因为长期前期来讲,我们大量的数据是需要去处理的,去年多,但未来来讲我们确定到一定程度,说我们可能influence是会需求是会越来越大了,对产品来讲一定是说我们的产品对 influence的对推理这方面的算力的迭代或者是算力的加成,肯定是会做更多的一些优化,做更多的这方面的一些应用,主要是根据市场未来几年就需求,我们其实可以看到这个推理基本上每年我去应该会以30%~40%的一个需求往上涨,这是对推理端的要求。


所以不管是对硬件来讲,或者是对加速库来讲,我们肯定会去对于推理端的这样一些,比如说对in的整形的计算的优化或者是一些加成,那会做更多的这样这方面的一些工作和一些优化,对。

说话人10
 Ok好的,谢谢,我就这两个问题。

说话人7
请晚上7894的参会者进行提问。

说话人1
谢谢专家您好。


想请教一下第一个,因为英伟达很快也紧接着发布了gh200是不是又对mi300的一个回应,因为它也是CPU加GPU这种架构的,还有英伟达还有可能在明年可能会推出b100性能更高的,所以说比如像分一下竞争态势,第二个关于产能,像是不是我们MR300是不是也要在台积电那边 Cos它的大概能够分配给多少,然后一片金源按照现有的工艺水平能够出大概多少张 MS300的这样这么芯片。

说话人2
好,谢谢 ok,回答您第一个问题,为三个前200,的确它其实跟grace和h100是一样的,其实就是把他们的call和去by和hm对封在同一个 CS里面去。


它的性能的确就我们前面也讨论过这个问题,它性能我现在看到的它们的性能的参数的确会 BH100比gh100其实是有一些不小的提升。


至于和MS300,因为MS300其实我前面说了它的先天优势,因为它是基于AMD的以前的APP的技术,跟霍勒阔和 mi和安居乐带之间阔之间的通信,其实采用了非常成熟的MD的技术,通信速度是非常快的。


 Gh200中间的arm的扩和 Emme的不sorry没点的GPU将通讯thu是什么样的,我还没有足够的时间去做一个更多这方面的一些分析,后面还是会去看看他们到底是一个什么样的对到底是个什么样的性能,包括 CPU和GPU之间的通信的速度等等是什么样的。


既然他这么强,对他肯定会对,因为MS300其实是我们是针对h100,还有j10 100这样做了一些,还有s300针对j700做的这么一些东西。


的确如果它针对200比100,如果有很大的提升,的确可能会有一些影响,但也没有关系,比如说他后面出了一些新的卡 MD,其实有很多 small型,包括on going的下一代的x的 mi,其实都已经到了非常稳盛的阶段了,所以不需要太久也会给出相应的回应的。


然后包括在因为AMD kuai 30c或s其实在AI这方面它是有自己非常强的一个生态,还有有自己的engine,他是个专门的专用的AA的一个IP,还是是做AI加成的,他基于 aianie这个上面,还有他在 Sako上面也有很多l加成的东西,来对MB来讲,我们是会去把AI e的,不管是硬件的esc还是软件的LDS上面会去没到我们的买的产品相应键上面也会去加强我们的ng和软件上面也会去做相应的加成,所以这个东西来讲未来我们还是非常positive的,然后AMD的马路线和FX的Ehly的东西没在一起,会是怎么样?


对。

说话人1
然后产能的问题。

说话人2
产能的确video使用的cos MD也会用太极的cross,因为我们m300其实的q素材人力什么,所以我们前个三个季度的cross的产线其实会说我们其实是非常少的, q4我们大概是会在5000~6000片的这么一个样子。

说话人5
每。

说话人2
一个因为m300其实它从硬件的架构上来讲,我们比 h百强,是因为我们有更多的更漂亮优劣,但我们有更多的 PRO搜索,所以它其实对一个带的SARS我们去比媒体还是要大一些的,基本上是在25%,对,所以我们m300一个微博上面大概是可以切出来20天,总共的产能可能在10万左右。


 M一点的确,因为他们其实已经事先优先占有市场了,所以他们今天的产量会非常大,明年他们的产能也会今年应该他们会在130万到140万颗带的什么,明年他们可能得到200万左右。但是我们因为q4才开始的例子,我们要卖300,到明年我们基本上整全年应该会是在mi300~4~5倍的基础上,大概会有50克的50万颗袋这样的一个出货量,然后对大概这样的一个样子。

说话人1
对,我补充追问一下,听下来好像咱们这边一张一颗惊人能够切出的片子,好像是比nvd还是要少一点。这是因为我们的工艺原因,还是因为突击的良的原因,未来有爬坡的这样一个空间吗?

说话人2
那不是良的原因,是呆在 si是不一样,我们底端的哈利威尔的架构是不一样的,我们的computer的数量是不一样的,我们的die赛是比他们要大的,我们一个die是大概在1000以上的平方毫米 h100的大概它其实是在800左右。


Isi是不一样,所以一个微博上面切出来今天数量不一样,然后说到良率,良率这个事情其实我们采用区块链的 VD package以后,其实我们良率相比我们以前是有不小的提升的,为什么?


因为我们以前可能是一个大的带一个大的带,比方说我上面有一些一些哪几个或一些优劣的坏掉了,我们整个贷可能就废掉了。


我们现在采用小芯片的技术以后,我们可能以前一个大的带,我们现在分了好几个带,比如说 m300 cda我们可能是三个大,3个 QQ代和1个l代的会把1个系统会分成4个代去做这样的配套。即便我中间有个小的带,然后坏掉了,我其实只需要再把另外一个小的带补上来,我还是一个完整的卖300。这样子来讲的话,我们提升两个月的机会会比以前大很多。


对,所以ml3版的良率相比较,我们以前的卷6a型的良率,包括我们的CPU端也是先采用在idn在瑞正那边,我们先采用了这种思维d的这种方式,我们在两米相比较以前是有不小的提升的。


对,所以整体来讲的话,你说到单科贷的成本来讲,其实我们并不比VD要高,因为虽然我们每个微博上面切出来的贷的数量变少,但是我们良率上去了,我们一般来讲讲单科贷的成本肯定是我们的贷,我们来带着个数乘以我们两公里得出来这么一个。

说话人5
对。

说话人2
所以整体来讲还是控制的成本控制的还是非常好的。

说话人1
非常感谢再请教一个技术,你说现在新的芯片设计里面的通讯既可以用光连接,也可以用电信号连接,会不会更多采用高速铜线,您了解吗?

说话人2
这一刻就是现在大部分大家还是采用的是光模块了,至于说是电这个技术,其实因为对io这一块的东西是不是我特别擅长的领域,对,我们现在基本上还是基于的是光模块实现高速通信,对基于光和电的比较,目前我对这方面没有太多的研究,就是他们这个优势和劣势,包括他们之间的技术的一些不同,对,好。

说话人1
非常感谢我没有其他问题建议。

说话人7
下面有请尾号2866。

说话人11
的通知进行提问。

说话人12
谢谢。专家您好,我有几个问题请教一下, Mi,300推出来性能很好,然后英伟达也支持他,只要去200的系列来做一个应对的措施。


我们300系列兼容性比以前可能提升很多,跟扩大生产什么的,但是我估计和。因为他自己的芯片比还是有点差距的。我想笼统地感受一下,比如说我有1亿美金的 Pp的开支资本开支,我买了300系列的ei亿美金是买的是gh200的,最后在用的都是扩大生态的,然后最后我去跑算跑这些大模型什么的,性能上整体这个是哪个更性价比更高一点或更好一点,这是第一个问题,对。

说话人2
Ok我们就一个问题来问和答,这个其实就涉及到我们很多时候决定production的时候,客服product了这么一个问题,每美金成本你能获得的性能的一个问题,MF300和GS200的对比,其实我想不清楚,因为届时200在刚刚的例子,我前面还没有对GS两边有太多的性能和价格上的一些分析, ml300基于对所以我们就谈跟h700的对比,我们其实前面我们的微博的成本然后等等,其实或者说抛为一定的情况下,我们基本上可以别去摆在各种不同的计算矩阵计算或者是算上面,比如说HP64532和16,我们基本上像bhbik单科卡可以达到25%~3%30的性能提升。

说话人5
然后。

说话人2
成本和抛我一定的一样的情况下,我一定会相当的情况下,如果对于2~4颗 GPU协同作用的情况下,我们可以别去达到50%左右的提升,如果是4~8个GPU小规模集群的这种协同作用情况下,可以达到大概两倍的提升。


至于MS300和gh290,或者说我们gh200不能是MS300比,它应该和instant300比,那么它们都是c等比较的这个东西其实目前我们是不知道的,然后也没有因为也没有太多的对歼10 200的。

说话人13
分析和了解,所以这个可能。

说话人2
需要一些时间去分析他们最新的身份。

说话人12
明白。第二个问题就是推理需求,大家都知道未来几年推理的需求占整个GPA里面的占比会很更大的一个比例,然后大厂自己也在做,然后他们的可能重心更多很多,也是自己方案模型受理完之后的整个推理端的自供的比例会提起来,然后无论是演变还是英伟达怎么去面对这样一个格局,因为以后的市场大本在那块,然后那块大厂是自供的比例要提起来的,然后我们现在的整个重心都是放在训练团的芯片设计和迭代上,就是未来会推出专门的推理端性价比更高的推理端芯片吗?


然后这种芯片的推出会对原来的宣传单芯片的整个定价体系又产生很大的影响吗?怎么看策略的问题?

说话人2
对,其实其实就是说的确在过去几年其实训练会找到大规模的比例,因为我们还是有海量数据需要去去处理了,需要去做训练,当我们的训练达到一定规模会达到一定成熟度以后,未来比如说我们像建筑a9a生成的AI和GPS的兴起,包括大家对它的兴趣越来越高,肯定在推理端我们的规模是会越来越大的,未来的需求,那未来几年基本上我们觉得应该会在30~%百分之去做普营业的增长,对推理的需求,针对这样市场的变化,市场的需求的变化,我们会在我们的不管是我们的生态上面稍稍这个和我们的卡上面的一些优化上面,那一定会针对推理的需求做很多自己的一些策略和一些solution的。


因为他训练他和推理他对这算子的要求,或者说他对古典书或者整书或者是取得意义上的需求是不一样的,或者说它的比例是不一样的,我们相应的会再做更多的相关的一些加成相关的一些优化,对我们这个东西自从GPT A进入ATM开始火了以后,我们就已经意识到这样的事情,对微电影MP在这边都会做很多面对未来 influence的不断提升的市场规模和需求的做很多应对的一些东西,所以这个是没有问题。

说话人12
然后厂商们。

说话人2
现在包括户你说。

说话人12
对我两两个群体就AMD英伟达的在推理端的芯片的研发和迭代上面和以谷歌为代表的大厂自己去做研发迭代速度应该还是赶不上我们专业的 GPU厂家的。


这个结论是不是可以下?

说话人2
我这个是可以的,因为其实我们做ahpo其实推理和训练,其实我们里面很多的硬件的算法还有加速的逻辑单元,其实在很多时候是并不会说区分说我到底我这个算子是boss在群里还是boss在推理上面,其实各种各样的东西都是真是破了,无非就是说我后面可能在我design我的QQ那里面,我也没个价格,我哪一个忧虑者我给他更高的PPT,然后再跟别人里面有大量的流处理器,然后哪个占比会多一些等等。


其实对于 MV点和MG来讲去扩展是非常容易的一件事情,包括我在我的酷带和com的上课里面,库加速库上面来讲,我只需要去对于推理上面的更多的算的需求,一些库做一些更多的突破了,那就可以达到这样的一个效果。所以实际上来讲,因为这两家都做通用的,加入了 HP了,所以这两个其实没有太大的难度,从技术上来讲。

说话人12
明白。最后一个问题再请教一下您刚才之前讲的就是我们未来的产能m300的规划,四季度大概10万颗左右,明年接近50万颗,热量挺大的,然后在60万颗的备货里面有多少比例已经大厂确定性意向已经需要采购了?


我不知道,因为现在短期。

说话人2
我们其实是其实我们 Q4里面,其实我们美国的超算中心其实有很大量,可能大家知道美国最大传统专业会去采用 instant300的solution,所以这个里面是会干掉不少的需求的,其实对于我们合作非常紧密的一些厂商,max买了其实也会占有在这里面占有非常大的一个比重,明年其实是会包括在更多的这些我们需求的厂商,所以基本上还是相对比较确定的,其实我们也希望能够在中国去能够,因为其实大家对 mi300这个系列还是非常大兴趣的,所以我们也会有自己的中国区的产品是买388,我们也会现在确定的就是大家的兴趣是非常高了,因为我们的产品这块还没有去对瑞尼斯出来,最后这个东西就是对中国区的市场现在具体有多少现在还不是很清楚,但是至于在美国那边大的厂,还有一些操场中心的需求还是非常确定的目前。

说话人12
明白,然后再补充一下就是四季度的这10万颗,它的销售是在今年四季度就去交付吗?还是说会延到明年一季度开始交付?

说话人2
我不清楚,因为这个是财务可能怎么统计。

说话人12
 Ok好的。

说话人2
谢谢不客气。

说话人3
谢谢专家,然后考虑到时间的关系,我们最后再开放一个问题。

说话人7
下面有请晚上1586的同学进行提问,谢谢。

说话人13
佳佳你好,我接触的比较晚,就问问一个小问题就是说文明300虽然从当代的一个性能来比的话,也肯定比it100要好,但是英语达的扩大的生态它相对来说比较成熟,如果我们很多个芯片互联起来,它最终比如说跑同一个模型,我们整体的效果会不会打折扣比较多,如果我们自己的怎么讲,我们叫什么rock生态和扩大的,我不知道最终它整体上你比如说1万片一起协作了之后效率会怎么样?

说话人2
Ok那么这个问题就单科带单科卖300和700对比,单科带我前面讲过,对于不管是对浮点数64分26块,最新的计算基本上是在30%左右的提升,那2~4颗代协同作用基本上是在50%,4~8克小规模集群大概在两倍的性能,至于更多的大因为我们都是跑一些特定的一定规模的模型,然后去拿到了普通c的对于大模型需要很多克几百克等等,比如说h8k可以占到250克去白去协同作用同一个大集群,我们m38也可以去占到几百张卡去协同作用。


普通的是贝塔,我们还在和我们非常友好的厂商去做一个大模型的一些Tony,还有一些这不管已经在t5和部署的过程当中,同样的几百张卡一定以同样规模的卡跑同样的模型,最后出来的 cosplay的比较,我们现在还没有这样的数据。


对,所以这个可能未来的几个月里面会有这样的一些性能数据的对比出来,包括我估计在未来市场上这个数据我们也会列出出来,当。

说话人13
跟再稍微问一下前面您说明年产能规划情况,现在是在台积电那边已经预定到它一些相应的产能,还是说现在这些个规划?

说话人2
现在我了解到了,就是说现在产能还没有最终确定下来我们 plan的24年全年的一个产能计划,因为现在好像产线还没有完全确定下来,是不是会分给我们这么多,或者说我们是不是可以拿到更多,这个不是很确定。

说话人13
行,好,谢谢大家各种各样的方式。先生您好。

说话人7
下面是来自网络端的文字提问,他的问题是您刚才说的si三版明年出货50万颗的预测是怎么来的呢?然后50万颗是根据今年q4产能年化拍的,还是根据客户意向订单来看的?

说话人2
对这个是两方面,一个是客户意向订单,那个是根据我们对整个市场的需求,包括现在的一些变化需求的量来去做了一些自己的 Plan,还有一些计划,然后当然在预项订单里面会占到相对大的一个比重,我们自己根据市场的变化,还有我们的性能等等一些数据的分析,包括然后未来不管是在GPT或建筑业建筑AI的发展速度上面来自己来做的一些相应的评估。


对这个是两个结合起来的一个数字。

说话人7
感谢您的解答。下面三个问题是 AMD有没有类似MV0的技术,还有芯片集群组同效应如何?谢谢。

说话人2
 They are every video,many car mdoz the infinity public is都是来去做偏振互联的一个去增加我们的偏向互联的带宽,然后去减少我们的雷登c就是我们减少偏向互联 l访问的c的这么样的技术, MD半年发布也可以发展到第三代第四代。


然后结构性你需要保证你的一个是上乘的倭寇下来,怎么样去进行配到你不同的怎么样去把握克勒迪斯派到你的不同的GPU上面,让他们同时工作,然后并且保持比较好的WAC的班实际上是效率更高,因为对于任何并行计算的处理器来讲,一定是说每一个牛处理器和每一个computer能够在同样的时间能够完成差不多样的工作量。


就是乌克兰的班只是非常重要的一个事情, AMD在自己的生物学上,在自己的hello那个产品这个是逻辑上面是做得很好的。然后第二个就是多个卡之间协同作用,我们的l就是数据这种就是卡和卡这些数据的传输的速度,还有雷电c还有单位就是我们的贷款也是非常重要的,这两个部分会保证你说。


你多卡协同作用的手段最后的性能是什么样的。对,所以都有自己的输入型,MV都有自己的输入型,AMD有相应的也有自己的输入型,对。

说话人7
好的,感谢您的解答,下个问题是大规模效应后,mi300的算力设计很高,但是和上层软件的整体兼容性比h100还是差一些,那么 mi300在大集群专利池中的效率达到h100的是什么程度?谢谢。

说话人2
Ok这个问题刚刚已经解答了好几遍了,单科30%提升,达到4克54~8%克两倍。

说话人7
感谢您的解答。下一个问题是您刚才说m300倍的30万克的产能,这30万科里面有多少是大厂已经下单。

说话人1
所以50不是。

说话人5
对。

说话人2
大概q4 Q4里面大概是超算和大厂里面大概比例是在4~6,4:6。


明年50万里面这个里面大概有40%左右是已经有意向订单,然后后面是我们根据市场的因为不会说下到2024年的 q 3q4里面,这个时候肯定是没有订单,到那个时候说我们根据自己的很多的一些对根据市场的需求,然后做了一些评估。

说话人7
好的,下一个问题是q台的这些库会一直开放给同行吗?或者说英伟达是不是会限制这种兼容?谢谢。

说话人2
应该不会,从技术的角度上来讲,不会这样做。

说话人7
好的,下一个问题是mi300件零10万片,明年多少片,然后这个数据是怎么来的,谢谢。这。

说话人2
就是我觉得就是问题可以等会您挑问题的时候可不可以重复的问题就不要重复问,因为刚刚已经回答过这个问题了。对。刚刚我不知道线上问题互相之间大家是不是可以听到了,前面问题问过了,然后这个是不是能直接听到了,因为刚刚10万块钱,我说对。

说话人1
因为时间原因确实很多问题其实在提问之前可能就已经回答过了,然后咱们交流也时间维持的比较长,然后艾瑞克老师其实很多问题讲得非常的详细,我们也是因为时间原因,我们稍微精简一点,然后要不最后的话我们请艾瑞老师请帮我们做一个总结,对 Amd包括音乐达往未来一年半年,而且跟他们提供包括 GP这一块,我们做一个产业的总结,谢谢。

说话人2
行好。对,其实就是说其实以前大家 ahpo的需求大量还是用在我们的HPC端和高性能计算比较深的,现在其实在去年开始GDP过了以后,包括我们整个AI兴起以后,其实大家意识到就是说我们 HP的卡其实在群里的英孚老师其实有更大的想象空间,所以对m点和v点来讲,其实未来在不管是在趋利还是在一转时段,一定会做更多的投入,再做更多的一些优化,做更多的这些自己的solution。


我们从整个市场来讲也会觉得是非常庞大的,包括像像英特之前的 GPU了,老大 Raja,还包括像之前 CPU领域,我们说大神这么看,其实他们也现在不光是在做,他们在做 phytocoenology上门,同时也在去搞一家进入AI的一家公司去做,面向于未来整个 at的需求,做一些应该是业内非常牛的两个大佬。


大家其实现在都在去往这个方向去发力,对于不管是上层的模型的开发等等稍作还是追,硬件厂商的 VD和AMD,这个需求一定未来是会越来越大的,所以两家一定会不断的去去优化自己的 hard work,去优化自己的SARS,去投入更多的去往这个方向去占,去占有更多的市场,市场一定是很大的,就看两家怎么样去去在客户身边去争取更多的客户去怎么样去优化自己的产品,优化自己的生态。


对,然后包括像国内的这些做 GPU的厂商,然后虽然说目前来讲还是有一些落后,但未来是不是应针对国内的一些特定的场景,然后占有自己的一些市场,我觉得还是应该是乐观的。


对于某些特定的场景,我们国内这些像病人像水源。

说话人14
像包括像慕。

说话人2
包括。

说话人14
在南宁为。

说话人2
这样的一些厂商,应该是包括海光应该是会在未来在某些领域是会有自己一定的份额,但目前来讲还是相对非常落后很多,但是国内的环境。

说话人14
包括未来。

说话人2
特定的应用场景,包括政府单位等等,会有一些应用场景,这个应该还是相对乐观的。


所以整体来讲,全球对于aigp的需求,在未来一些年是可以预见到的,是需求一定是会越来越多,这个增长是会一个持续增长的,在这个份额里面可能因为 at和去 GPT的不断的发展,在influence三可能比去年端可能增长会快一些。对这个大概是目前的一个展望。好的。

说话人1
非常感谢讲得非常清楚,因为有好多记者包括线上的朋友反馈,现在其实大家对英伟达的关注是非常多的,所以AMD这一块算是相对来说低了一点,今天这个会我们讲的讲得非常的详细,很多细节解释不清楚,我们也非常感谢艾瑞克老师参加,也非常感谢我们现场各位投资者参加我们。

作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
鸿博股份
S
胜宏科技
S
通富微电
工分
2.17
转发
收藏
投诉
复制链接
分享到微信
有用 2
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(1)
只看楼主
热度排序
最新发布
最新互动
  • 只看TA
    2023-06-04 18:16
    这么高了,有啥好吹的?
    0
    0
    打赏
    回复
    投诉
  • 1
前往