登录注册
英伟达
金融民工1990
长线持有
2024-05-23 22:15:45

摘要

 

 

英伟达在2025财年第一季度实现了创纪录的业绩,收入达到260亿美元,环比增长18%,同比增长262%。

 

数据中心业务是英伟达业绩增长的主要动力,数据中心收入达到226亿美元,环比增长23%,同比增长427%。

 

英伟达的Hopper GPU计算平台推动了数据中心业务的强劲增长,计算收入同比增长超过五倍,网络收入同比增长超过三倍。

 

大型云服务提供商是数据中心增长的主要驱动力,占据了数据中心收入的40%以上。

 

英伟达的软件、堆栈和生态系统与云服务提供商紧密整合,为云租赁客户提供了高效的GPU实例,推动了收入增长。

 

人工智能在各行业发展迅速,推动了数据中心收入的增长,AI技术贡献了大约40%的数据中心收入。

 

 

 

Q&A

 

请概述英伟达在2025财年第一季度的财务业绩,并指出其主要增长动力。

 

英伟达在2025财年第一季度实现了创纪录的业绩。公司的收入达到260亿美元,环比增长18%,同比大幅增长262%,超出了此前预期的240亿美元。这一增长主要由数据中心业务推动,数据中心收入达到226亿美元,环比增长23%,同比增长427%。这一强劲增长主要得益于英伟达Hopper GPU计算平台的持续强劲需求。计算收入同比增长超过五倍,网络收入同比增长超过三倍。数据中心的增长由所有类型的客户驱动,尤其是企业和消费者互联网公司。大型云服务提供商在部署和扩展英伟达AI基础设施时,持续推动增长,并且占到了数据中心收入的40%多一点。在英伟达CUDA上训练和推理AI,为云服务提供商的租赁收入增长带来了显著加速,为云服务提供商的投资带来了立即且强劲的回报。对于每投入1美元在英伟达AI基础设施上,云服务提供商有机会在4年内通过GPU实例托管收入赚取5美元。英伟达的软件、堆栈和生态系统与云服务提供商紧密整合,使得最终用户能够轻松启动并在公共云中运行英伟达GPU实例。云租赁客户使用英伟达GPU能够以最短的时间训练模型,以最低的成本训练模型,并以最低的成本推理大型语言模型。英伟达吸引客户使用他们的云服务,从而推动收入增长并为他们的基础设施投资带来回报。领先的大型语言模型公司如OpenAI、Anthropic、Character AI、Cohere、Databricks、DeepMind、Matter、Mister、All XAI等都在云端构建基于英伟达AI的应用。企业在本季度的数据中心业务中实现了强劲的环比增长。我们支持了特斯拉将其AI训练集群扩展到35,000个H100 GPU。特斯拉使用英伟达AI基础设施,为其最新的自动驾驶软件版本12的突破性性能铺平了道路。尽管消耗了更多的计算资源,但该软件基于视觉视频变换器,使得自动驾驶能力得到了显著提升,并推动了英伟达AI基础设施在汽车行业的显著增长。我们预计,汽车行业将在今年成为数据中心最大的企业垂直市场,带来跨越本地和云消费的数十亿美元的收入机会。消费者互联网公司也是一个强劲增长的垂直市场。本季度的一个亮点是Meta宣布了Llama 3,这是他们最新的大型语言模型,该模型在24,000个H100 GPU上进行了训练。Llama 3为Meta的AI助手提供动力,该助手可在Facebook和Instagram上使用。

 

请介绍一下人工智能在各行业发展的现状及其对数据中心收入的贡献。

 

当前,人工智能(AI)技术正广泛应用于各个行业,推动了一系列AI发展浪潮。以我们公司为例,在过去四个季度中,我们估计推理(inference)贡献了大约40%的数据中心收入。无论是训练还是推理,都在显著增长。例如,像Meta和Tesla这样的大型集群,它们构建了对AI生产至关重要的基础设施,我们称之为AI工厂。这些下一代数据中心托管了先进的全栈加速计算平台,数据输入后,智能输出。在第一季度,我们与超过100家客户合作,建设了规模从数百到数万个GPU不等的AI工厂,其中一些达到了100,000个GPU。

 

请谈谈全球数据中心收入的地理分布情况,以及各国在主权AI方面的投资。

 

数据中心收入在全球范围内持续多元化,各国都在投资于主权AI。主权AI指的是一个国家使用自己的基础设施、数据、劳动力和商业网络来生产人工智能的能力。各国正在建立国内计算能力,采用不同的模式。有些国家与国有电信提供商或公用事业合作,采购和运营主权AI云。其他国家则赞助当地云合作伙伴,为公共和私营部门提供共享的AI计算平台。例如,日本计划投资超过7.4亿美元于包括KDDI、樱花互联网和SoftBank在内的本土数字基础设施提供商,以建设国家的主权AI基础设施。法国的Gale Way,Elliott集团的子公司,正在建设欧洲最强大的云原生AI超级计算机。在意大利,Swisscom集团将建设该国第一个也是最强大的NVIDIA DTX驱动的超级计算机,以开发第一个以意大利语为母语的大型语言模型(LLM)。新加坡的国家超级计算中心正在升级,以配备NVIDIA的A100 GPU。Singtel正在东南亚建设由NVIDIA加速的AI工厂。我们相信,主权AI的收入今年可以接近数十亿美元的高个位数。

 

请描述NVIDIA在中国市场的情况,以及对未来竞争的预期。

 

我们为中国市场设计了专门的新产品,这些产品不需要进口控制许可。自去年10月新出口控制限制实施以来,我们在中国的数据中心收入显著下降。我们预计,未来中国市场将保持非常有竞争力。

 

请谈谈NVIDIA的Hopper GPU架构在计算收入中的表现,以及对Hopper的需求情况。

 

在过去的季度中,我们的计算收入主要是由Hopper GPU架构驱动的。Hopper的需求持续增长,得益于Coda算法的创新,我们能够在H100上将LLM的速度提高至多达3倍,这可以转化为为流行模型如Llama三提供服务的成本降低3倍。我们在第一季度开始对H200进行样品测试,并且目前已经在生产中,预计第二季度按计划发货。例如,使用具有7,000亿参数的Bama三,单个NVIDIA HDX H200服务器可以每秒提供24,000个令牌,同时支持超过2,400个用户。这意味着,按照当前每个令牌的价格计算,API提供商在四年内为NVIDIA HDX H200服务器的每1美元投资,可以产生7美元的收入。

 

NVIDIA在软件优化方面取得了哪些进展,以及对H100和H200供应的现状。

 

我们持续通过软件优化来提高NVIDIA AI基础设施服务AI模型的性能。尽管H100的供应仍然受限,但我们正在改进。同时,Blackwell已经全面投产。我们正在与系统和云合作伙伴合作,确保今年晚些时候全球可用。H200和Blackwell的需求远远超过供应,我们预计需求可能会超过供应,直到明年。

 

请介绍Grace Hopper超级芯片的市场表现,以及在国际超级计算会议上宣布的新超级计算机情况。

 

Grace Hopper超级芯片已经开始大规模发货。在上周的国际超级计算会议上,我们宣布全球有九台新的超级计算机正在使用Grace Hopper,它们在今年提供了合计200 ExaFLOPS的能源高效AI处理能力。这些包括位于瑞士国家超级计算中心的Alps超级计算机、位于英国布里斯托尔大学的Isambard AI以及位于德国Jülich超级计算中心的Jupiter。我们在超级计算中看到了Grace与Hopper的80%附加率,这得益于其高能效和性能。我们也很自豪地看到,搭载Grace Hopper的超级计算机在世界上最节能的超级计算机排名中占据了第一、第二和第三位。

 

NVIDIA在网络业务方面的增长情况如何?

 

我们的网络业务年度增长强劲,主要是由InfiniBand驱动的。我们经历了一次小幅的季度下降,这主要是由于供应的时间问题,需求超出了我们的发货能力。我们预计在第二季度网络业务将恢复季度增长。在第一季度,我们开始发货我们的新Spectrum-X以太网网络解决方案,它从底层为AI优化,包括我们的Spectrum-4交换机、BlueField-3 DPU和新的软件技术,以克服在以太网上运行AI的挑战,以实现1。

 

NVIDIA的Spectrum X产品在AI处理方面的性能如何,目前市场接受度如何?预计其市场表现将如何发展?

 

NVIDIA的Spectrum X产品在AI处理方面的网络性能比传统以太网高出6倍,目前正在与多个客户扩大产量,包括一个庞大的10万GPU集群。Spectrum X为NVIDIA网络打开了一个全新的市场,使得仅支持以太网的数据中心能够容纳大规模AI。我们预计Spectrum X将在一年内跃升为数十亿美元的产品线。

 

NVIDIA在GTC大会上推出的下一代AI工厂平台有哪些特点?Blackwell GPU架构的性能如何?

 

3月份的GTC大会上,NVIDIA推出了下一代AI工厂平台。Blackwell GPU架构在训练速度上提升了4倍,在推理速度上提升了30倍。与H100相比,Blackwell能够实时生成具有1万亿参数的大型语言模型。Blackwell在总拥有成本(TCO)和能耗方面比Hopper低出25倍。Blackwell平台包括第五代NVLink,支持多GPU架构,新的InfiniBand和以太网交换机X800系列,专为万亿参数规模的AI设计。Blackwell旨在全面支持从超大规模到企业级的数据中心,包括从x86到Grace CPU,从以太网到InfiniBand网络,以及从空气冷却到液体冷却的各种配置。Blackwell将在超过100家OEM和ODM系统中提供,是Hopper推出时的两倍多,代表了全球每一个主要的计算机制造商。这将支持在首年发货中跨客户类型、工作负载和数据中心环境的快速和广泛采用。Blackwell的市场客户包括亚马逊、谷歌、Meta、微软、甲骨文、特斯拉和XAI。

 

NVIDIA新推出的NVIDIA AI Microservices(Nemo)有什么特点?它如何支持开发者构建和部署生成AI应用?

 

NVIDIA新推出的NVIDIA AI Microservices(Nemo)提供安全且性能优化的容器,由NVIDIA CUDA加速,并集成了网络计算和推理软件,包括Triton和TensorRT。Nemo支持广泛的用例,包括文本、语音、图像、视觉、机器人、动力学和数字生物学的大型语言模型。它使开发者能够快速构建和部署使用NVIDIA、AI21、Adapt、Getty Images和Shutterstock等领先模型的生成AI应用,同时还支持谷歌、Facebook、微软、Mistral AI、Snowflake和Stability等开放模型。Nemo将作为NVIDIA AI企业软件平台的一部分提供,适用于云端或本地环境的生产部署。NVIDIA在游戏和AI个人电脑方面的收入情况如何?G Force RTX Super GPU的市场反馈如何?

 

NVIDIA在游戏和AI个人电脑方面的收入为26.5亿美元,环比下降了8%,同比增长了18%,符合我们对季节性下降的预期。G Force RTX Super GPU市场反馈强烈,最终需求和产品范围内的渠道库存保持健康。自AI旅程开始以来,我们为G Force RTX GPU配备了CUDA Tensor核心。如今,G Force RTX GPU已经拥有超过1亿的安装基础,非常适合游戏玩家、创作者、AI爱好者,并为运行生成AI应用提供无与伦比的性能。NVIDIA拥有完整的技术栈,用于在G Force RTX个人电脑上部署和运行快速高效的生成AI推理。TensorRT现在加速了微软的Bing 3 Mini模型和谷歌的Bert 7B模型,以及包括Lang Chain和LAMA Index在内的流行AI框架。

 

NVIDIA在专业可视化领域的进展如何?Omniverse Cloud API的新动态是什么?

 

NVIDIA在专业可视化领域的收入为4.27亿美元,环比下降了8%,同比增长了45%。我们相信,今天的生成AI和Omniverse工业数字化将推动下一波专业可视化增长。在GTC大会上,我们宣布了新的Omniverse Cloud API,使开发者能够将Omniverse工业数字孪生和仿真技术集成到他们的应用中。世界上一些最大的工业软件制造商正在采用这些API,包括Ansys、Cadence、Dassault Systèmes、Siemens等。开发者可以利用这些API将工业数字孪生流式传输到诸如Apple Vision Pro等空间计算设备。Omniverse Cloud API将在今年晚些时候在微软Azure上提供。公司正在使用Omniverse数字化工作流程。Omniverse驱动的数字孪生使我们的一个制造合作伙伴能够将端到端的生产周期时间缩短50%,缺陷率降低40%。世界上最大的电动汽车制造商BYD正在采用Omniverse进行虚拟工厂规划和零售配置。

 

NVIDIA在汽车领域的收入情况如何?新的设计胜利和合作伙伴关系有哪些?

 

NVIDIA在汽车领域的收入为3.29亿美元,环比增长了17%,同比增长了11%。环比增长主要是由于AI驾驶舱解决方案在全球OEM客户中的推广以及自动驾驶平台的加强。同比增长主要是由于自动驾驶的推动。我们支持了其首款电动汽车SU7轿车的成功上市,该车基于NVIDIA Drive Orin AI汽车计算机,用于软件定义的汽车。我们还宣布了多个新的设计胜利,包括NVIDIA Drive Thor,这是Orin的继任者,由新的NVIDIA Blackwell架构驱动,与包括BYD、XPeng、NIO和Hyundai等几家领先的电动汽车制造商合作。NVIDIA Drive Thor预计将从明年开始用于生产车辆。

 

NVIDIA的财务状况如何?公司在股东回报方面采取了哪些措施?

 

NVIDIA的GAAP毛利率环比扩大到78.4%,非GAAP毛利率为78.9%,得益于较低的库存费用。正如上个季度所提到的,第四季度和第一季度都因为部件成本的环比优势而受益。GAAP运营费用环比增长了10%,非GAAP运营费用增长了13%,主要反映了更高的薪酬相关成本和计算及基础设施投资的增加。在第一季度,我们向股东返还了78亿美元,形式包括股票回购和现金红利。

 

请介绍贵公司最近宣布的股票拆分情况以及股息增长情况。

 

我们最近宣布了以10比1的比例拆分我们的股票,6月10日将是按拆分调整后的基础进行交易的第一天。同时,我们还将股息提高了150%。

 

能否提供第二季度的财务预期?

 

对于第二季度,我们预计总收入将达到280亿美元,正负2%的波动。我们预期所有市场平台的收入都将实现环比增长。按照美国通用会计准则(GAAP)和非GAAP计算的毛利率预计分别为74.8%和75.5%,波动范围为正负50个基点,这与上一季度的讨论保持一致。对于全年,我们预计毛利率将处于70%中段的范围。

 

请问贵公司的运营支出预期是多少?

 

按照GAAP和非GAAP计算的运营支出预计分别约为40亿美元和28亿美元。

 

全年的收入增长预期是怎样的?

 

我们预计全年的收入增长将处于40%的低端范围,这适用于GAAP和非GAAP计算的增长。

 

贵公司的其他收入和支出预期有何变化?

 

我们预计其他收入和支出将是约3亿美元的收入,这一预期不包括来自非关联投资的收益和损失。

 

贵公司预计的税率是多少?

 

我们预计按照GAAP和非GAAP计算的税率将为17%,波动范围为正负1%,这不包括任何一次性项目。

 

在谈到行业转型的重要性时,您提到了哪些关键点?

 

行业正在经历一场重大变革,下一次工业革命已经开始。公司和国家正在与NVIDIA合作,将价值数万亿美元的传统数据中心转变为加速计算,并建立新型的数据中心——人工智能工厂,以生产新的商品:人工智能。人工智能将为几乎每个行业带来显著的生产力提升,并帮助公司在扩大收入机会的同时,实现成本和能源效率的优化。

 

NVIDIA在推动行业变革方面采取了哪些具体措施?

 

NVIDIA CSPs(云服务提供商)是首批采用生成性AI的行动者,他们利用NVIDIA CSPs加速的工作负载来节省资金和能源。NVIDIA Hopper生成的令牌推动了他们的AI服务收入。此外,NVIDIA云实例吸引了我们丰富开发者生态系统中的租赁客户,强劲且加速的需求推动了我们数据中心群组的增长。我们的训练工作负载随着模型学习成为多模态——理解文本、语音、图像、视频和3D,并学会推理和规划——而不断扩展。我们的推理工作负载也在难以置信的增长,尤其是生成性AI推理,现在关于快速令牌生成的大规模需求变得极其复杂。生成性AI正在推动从基础到全栈计算平台的转变,这将改变从今天的信息检索模型到未来的答案和技能生成模型的每一次计算交云。

 

NVIDIA在推动计算模式转变方面采取了哪些措施?

 

我们正在根本改变计算的工作方式以及计算机能够做什么。从通用CPU到GPU加速计算,从指令驱动的软件到理解意图的模型,从检索信息到执行技能。在工业层面,我们从生产软件转变为生成令牌,制造数字智能。令牌生成将推动AI工厂多年的建设。

 

NVIDIA在哪些垂直市场看到了增长机会?

 

除了云服务提供商之外,生成性AI已经扩展到消费者互联网公司和企业、主权AI、汽车和医疗保健客户,创造了多个价值数十亿美元的垂直市场。

 

NVIDIA的Blackwell平台在生成性AI方面有何作用?

 

Blackwell平台已全面投产,它构成了万亿参数规模生成性AI的基础。Grace CPU、Blackwell GPU、NVLink、Quantum-2、Spectrum-3交换机、高速互连以及丰富的软件和合作伙伴生态系统的结合,使我们能够扩展并提供比以往更丰富、更完整的AI工厂解决方案。

 

NVIDIA在扩展大规模AI到以太网数据中心方面有何新动向?

 

Spectral Max为我们打开了一个全新的市场,使我们能够将大规模AI带入仅支持以太网的数据中心。而NVIDIA NIMS是我们的新软件产品,它提供企业级优化的生成性AI,可以在从云到现场数据中心,再到RTX AI PC的各个地方运行,通过我们广泛的生态系统合作伙伴网络。从Blackwell到Spectrum X再到NIMS,我们为下一波增长做好了准备。

 

Blackwell产品的生产和发货时间表是怎样的?今年的Blackwell产品收入情况如何?

 

Blackwell产品已经开始生产一段时间,我们计划在第二季度开始发货,并在第三季度加速发货。预计客户将在第四季度建立起数据中心。因此,今年我们将看到大量的Blackwell产品收入。

 

Blackwell与Hopper在部署上有何不同?液冷技术在大规模应用中会带来哪些工程挑战?

 

Blackwell是一个平台,不仅仅是一个GPU,它支持多种配置,包括空冷、液冷、x86和Grace Infinite Band。Blackwell平台还包括了Spectrum X这样的大型NVLink域。对于那些已经部署了Hopper的客户,他们可以轻松地从H100过渡到H200,再到BE100。Blackwell系统在电气和机械上设计了向后兼容性,而且运行在Hopper上的软件栈在Blackwell上也能够出色运行。我们已经在整个生态系统中推广液冷技术,为Blackwell的推出做准备。我们已经与CSPs、数据中心、ODMs、系统制造商以及他们之外的供应链,包括液冷供应链和数据中心供应链进行了沟通,确保他们对Blackwell的到来和我们希望提供的Grace Blackwell 200到BE200的性能不会感到意外。

 

在产品供应紧张、竞争激烈的情况下,NVIDIA如何确保产品的充分利用,避免提前购买或囤积行为?

 

我们的GPU在所有数据中心的需求非常强劲,我们每天都在努力满足需求。这是因为像ChatGPT和GPT-4这样的应用,以及即将出现的多模态和Gemini等应用,以及所有CSPs正在进行的工作,都在消耗每一块可用的GPU。此外,还有大约15,000到20,000家不同领域的生成式AI初创公司,它们涉及多媒体、数字角色、设计工具、生产力应用、数字生物学以及AV行业向视频转移,以便他们能够训练端到端模型,扩大自动驾驶汽车的运行领域。客户们正在向我们施加压力,要求我们尽快交付系统并建立起来。当然,我还没有提到所有希望利用他们国家的自然资源——也就是数据——来训练区域模型的国家。因此,建立这些系统的压力非常大。长远来看,我们正在彻底重新设计计算机的工作方式,这是一个平台转变,虽然可以与过去的其他平台转变相比,但时间会证明这次转变比以往任何时候都要深远。这是因为计算机不再仅仅是一个指令驱动的计算机,而是一个能够理解意图、推理、迭代处理计划并提出解决方案的计算机。计算机的每一个方面都在发生变化,它不再是检索预录的文件,而是生成具有上下文的、相关的智能答案。这将改变全球的计算堆栈,甚至PC计算堆栈也将被革命性地改变。我们正在实验室中工作的事物,以及我们与全球各地的初创公司、大公司和开发者合作的事物,都将是非常非凡的。

 

对于Hopper和H100产品的市场需求和供应情况,以及在迁移到这些新产品时市场的反应,您怎么看?

 

我们观察到Hopper产品在本季度的需求持续增长,并预计这种需求将在一段时间内超过供应。随着我们向Hopper 200系列和Blackwell架构的过渡,我们预计市场对这些新产品的需求将会非常旺盛。客户迫切希望尽快上线他们的基础设施,因为这将帮助他们节省成本并创造收益。

 

在云计算领域,您如何看待客户同时更新内部程序和与NVIDIA合作的情况?您认为他们在中长期内会成为竞争对手吗?

 

NVIDIA在几个方面与竞争者有所不同。首先,我们的加速计算架构允许客户处理他们流水线的每一个方面,从非结构化数据处理到训练前的准备,再到结构化数据处理,例如SQL数据框架处理,以及从训练到推理。推理的本质已经发生了根本性的变化,它现在是生成过程,不仅仅是检测对象,而是要生成每一个像素。这种生成过程需要一种完全不同的处理架构。这也是TensorRT LM受到热烈欢迎的原因之一。我们在使用相同芯片的情况下,通过我们的架构将性能提高了三倍。这反映了我们架构和软件的丰富性。NVIDIA的平台能够处理从计算机视觉到图像处理,再到计算机图形学以及所有计算模式。在通用计算已经走到尽头的今天,加速计算是未来的可持续之路,它是节省计算成本和能源的关键。我们的平台的多功能性导致了数据中心最低的总拥有成本(TCO)。其次,我们为开发者提供了一个优秀的开发平台,无论是在本地还是云端,或是任何大小和形状的计算机中,NVIDIA几乎无处不在。第三,我们构建了AI工厂。人们越来越认识到,AI不仅仅是一个芯片问题,它是一个系统问题。我们不仅制造了一系列用于AI工厂的芯片,还优化了我们的芯片以作为一个系统协同工作,并拥有作为系统运行的软件,以及跨系统的优化能力。简单来说,如果你有一个价值50亿美元的基础设施,通过我们的技术将性能提高两倍,那么你获得的价值也是50亿美元,这远远超过了数据中心中所有芯片的成本。在性能至关重要的今天,最高性能也意味着最低成本,因为维持所有这些芯片的基础设施成本非常高昂,而且运营数据中心所需的资金、电力、房地产等成本都非常巨大。因此,最高性能也就是最低的总拥有成本(TCO)。在数据中心行业,NVIDIA新平台的推出速度和性能提升似乎非常迅速。请问您如何看待这种速度和性能提升对客户现有产品的影响,以及客户在迁移到Blackwell时的情况?

 

我认为这取决于客户基础设施建设的进度。如果客户的基础设施建设进度仅为5%,那么他们会尽可能快地建设,而Blackwell的到来将是一个巨大的利好。然而,如果客户的基础设施建设进度已经达到95%,那么他们对新一代产品的态度会有所不同。我们已经向市场说明,我们处于每年更新一次产品的节奏中。因此,无论客户目前的基础设施建设进度如何,Blackwell以及未来的产品都将为他们带来显著的性能提升。

 

NVIDIA在AI领域的发展战略是什么?请结合公司在数据中心建设和AI基础设施方面的实际举措,说明NVIDIA如何确保在AI技术竞赛中保持领先地位。

 

NVIDIA的战略重点在于提供一个长远的技术路线图,以支持客户的持续建设需求。我们认识到,客户需要立即盈利并节省成本,而时间对他们来说极其宝贵。以数据中心的快速部署为例,这能够显著缩短AI模型的训练时间,这一点对于保持技术领先至关重要。因为在AI技术的竞赛中,第一个达到新的技术高地的公司能够宣布具有突破性的AI成果,而紧随其后的公司可能只能宣布微小的改进,比如0.3%的性能提升。因此,我们的目标是成为那个能够不断推出突破性AI成果的公司。 为了实现这一战略,NVIDIA正在大规模部署Hopper系统,以迎接即将到来的技术高地。我们的快速发展和进步得益于我们拥有完整的技术栈和对整个数据中心的深入了解。我们不仅构建了整个数据中心,还能够监控、测量并优化所有环节。我们清楚地知道系统中的瓶颈所在,并不是凭借猜测或仅仅依靠看起来不错的幻灯片,而是通过交付能够在规模上表现出色的系统。我们之所以能够确信这些系统的性能,是因为我们从底层开始构建了每一颗芯片,并且对整个系统的处理方式有着精确的理解。这种对整个数据中心规模的深入、细致的知识,是我们今天区别于其他公司的根本。

 

NVIDIA如何看待通用计算生态系统在每个计算时代的主导地位?在面对特定工作负载,如神经网络训练和推理时,NVIDIA是如何保持其加速计算平台的竞争力?

 

NVIDIA认识到,通用计算生态系统因其能够适应不同的工作负载、提高利用率并降低计算成本而在每个计算时代占据主导地位。这也是NVIDIA推动通用GPU计算生态系统向加速计算转变的动力。虽然目前推动我们解决方案需求的工作负载,如神经网络训练和推理,在表面上看似是数量有限的特定工作负载,但实际上,这些工作负载的变化性足够大,且演进速度足够快,足以支撑历史上的通用计算框架。 NVIDIA的加速计算平台虽然多功能,但并不是通用计算。例如,我们的平台不擅长运行专为通用计算设计的电子表格应用。我们的操作系统代码控制循环可能也不适合通用计算,但适合加速计算。我们的平台之所以多功能,是因为我们设计了整个系统,并且能够加速多种应用。这些应用虽然在深度上有所不同,但都有共同点,即都可以并行运行,都是高度线程化的,而且5%的代码占据了99%的运行时间。这些特性都是加速计算的属性。我们平台的多功能性,以及我们设计整个系统的能力,是为什么在过去十年中,市场上出现了许多初创公司,而这些公司由于架构的脆弱性,在面对生成式AI、扩散模型以及现在即将到来的新模型时,都遇到了挑战。而我们的平台则因其多功能性,在面对需要记忆功能的大型语言模型等新兴需求时,显示出了Grace内存的重要性。

 

请谈谈人工智能领域的最新进展以及对硬件平台的要求。

 

当前人工智能领域的最新进展,特别是生成性AI的发展,要求我们不再仅仅设计针对单一模型的硬件,而是需要开发能够适应整个领域特性的硬件平台。这样的平台需要遵循软件的首要原则,即软件会持续演进,变得更加完善和庞大。我们相信,在未来几年内,这些模型的规模将会以至少100万倍的速度扩张。我们的平台的多功能性至关重要,如果过于脆弱和特定,那么我们可能只能构建FPGA或ASIC,但那远不如一台真正的计算机。因此,我们的平台设计注重通用性和可扩展性,以适应AI技术的快速发展和规模扩大。

 

在中国市场的业务策略和供应分配方面,您如何看待当前的形势?

 

我们在中国的业务量相比过去有所下降,现在中国市场的竞争更加激烈,这部分是由于我们技术的限制。尽管如此,我们仍然尽最大努力服务于中国市场的客户。总体而言,我们之前提到的需求超过供应的情况适用于整个市场,尤其是对于H200和Blackwell产品,预计到年底需求将会更加旺盛。

 

请您谈谈GP200系统的市场需求情况以及与过去相比的变化。

 

GP200系统目前市场需求强劲。历史上,我们销售了大量的AGX板和一些GPU,而系统业务相对较小。但现在,我们看到对系统的需求大幅增长。我们将GP200的所有组件进行了解耦,并与计算机制造商集成。今年,我们将推出100种不同的计算机系统配置,这是前所未有的。相比之下,Hopper在其高峰时期仅有一半的配置数量。我们将推出液冷版、风冷版、x86版以及Grace版本等多种系统。这些系统将由我们的生态系统合作伙伴设计并提供。Blackwell平台极大地扩展了我们的产品线,集成了CPU并且计算密度更高,液冷技术将为数据中心在电力供应方面节省大量成本,同时实现更高的能效。Blackwell平台更加全面,我们为客户提供了更多的数据中心组件,从网络交换机到以太网,我们现在能够将NVIDIA的AI技术带给更广泛的客户群。

 

NVIDIA决定推出基于ARM的Grace CPU时,是基于哪些考虑?在客户端市场,NVIDIA是否有可能提供与竞争对手不同的优势?

 

NVIDIA推出基于ARM的Grace CPU是因为它为数据中心操作提供了真正的优势,这可能与成本、功耗或Grace和Hopper、Grace和Blackwell之间的技术协同有关。对于客户端市场,尽管英特尔和AMD作为我们的合作伙伴提供了出色的x86解决方案,但NVIDIA可能在某些新兴的AI工作负载方面提供独特的优势。Grace允许我们做到现有系统配置无法实现的事情,Grace和Hopper之间的内存系统是一致的并且相连,两个芯片之间的互连接口速度达到了每秒数TB,这是非常惊人的。Grace使用的是数据中心级的低功耗内存LPDDR,这样我们可以在每个节点上节省大量的电力。最后,由于我们可以使用整个系统创建自己的架构,我们能够创建一个具有非常大的NVLink域的系统,这对于下一代大型语言模型至关重要。您可以看到,GB200拥有高达72个节点的NVLink域。

 

请问NVIDIA的新一代GPU架构Blackwell具备哪些特点?它在系统架构、软件编程和系统层面上有哪些必要的创新?

 

NVIDIA的新一代GPU架构Blackwell是由72个GPU核心连接成一个巨大的GPU,这种设计是出于多方面的考虑。首先,在系统架构层面,Blackwell需要这样的设计来满足高性能计算的需求。其次,软件编程方面的考虑也促使我们采用这种架构,以便更好地支持复杂的编程任务。最后,从系统的角度来看,构建这样的GPU是必要的,因为它能够提供所需的强大计算能力和高效能。NVIDIA会继续探索这样的机会,以推动系统创新。

 

在最近的发布会上,有哪些关于NVIDIA RTX GPU和ARM架构的新动态?

 

在昨天的发布会上,我们看到了NVIDIA RTX GPU的最新进展。Satyr公司宣布了下一代PC——Copilot Plus PC,它不仅在NVIDIA的RTX GPU上运行得非常出色,而且还完美支持ARM架构。这为PC系统的创新提供了新的可能性,NVIDIA的RTX GPU已经开始在笔记本电脑上出货。

 

NVIDIA在网络技术方面有哪些新的发展?您能否分享一下未来的产品路线图?

 

NVIDIA在网络技术方面的发展非常迅速。我们宣布了Spectrum-3的专家级以太网技术,我们全力支持以太网,并且拥有一个非常激动人心的以太网产品路线图。我们拥有一个丰富的合作伙伴生态系统,Dell宣布他们将Spectrum-3带入市场。我们还有一个丰富的市场客户和合作伙伴生态系统,他们将宣布将我们的整个AI工厂架构带入市场。对于追求极致性能的公司,我们提供了InfiniBand计算织物。InfiniBand最初是作为计算织物而设计的,但随着时间的推移,它逐渐成为了一个更好的网络。而以太网作为一个网络,通过Spectrum-3,我们将使其成为一个更优秀的计算织物。我们完全致力于推动所有三种链接技术——NVLink、InfiniBand和以太网——的发展,并且将以非常快的速度推进。因此,您将看到新的交换机、新的网络接口卡、新的功能和新的软件栈的推出,这些都将运行在这三种技术之上。此外,我们还将推出新的CPU、GPU、网络接口卡和交换机,以及大量的新芯片。所有这些技术都能够运行CUDA和我们的整个软件栈。

 

NVIDIA在未来十年内需要解决哪些挑战,以维持其在创新和规模扩张方面的领先地位?

 

NVIDIA在过去十年中实现了百万倍的规模扩张,这是非常令人印象深刻的。展望未来,我们需要解决的挑战包括提升精确度、优化Grace Coherent连接性等。我们将继续推动创新,以提高能力,并降低总体拥有成本(TCO),从而能够通过NVIDIA的架构来扩展新时代的计算。我们即将开启的这场新工业革命不仅仅是制造软件,还包括大规模制造人工智能产品。我们将致力于实现这一目标。


作者利益披露:转载,不作为证券推荐或投资建议,旨在提供更多信息,作者不保证其内容准确性。
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
沪电股份
S
胜宏科技
S
千方科技
工分
1.87
转发
收藏
投诉
复制链接
分享到微信
有用 1
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
暂无数据