你的位置:管道保温施工队_鑫诚防腐保温工程有限公司 > 联系鑫诚 > 玉树储罐保温 英伟达管解读Q4财报:还是看到了Agentic AI的拐点

玉树储罐保温 英伟达管解读Q4财报:还是看到了Agentic AI的拐点

发布日期:2026-02-26 14:28 点击次数:99
铁皮保温

题:英伟达财报与事迹熏陶双双预期 AI高潮动数据中心营收大增75玉树储罐保温

  英伟达当季总营收同比增长 73,从客岁同期的 393 亿好意思元增至 681.3 亿好意思元。面前公司过 91 的收入来自数据中心部门,该部门主营市集先的 AI 芯片。

地址:大城县广安工业区   详见:英伟达财报与事迹熏陶双双预期,AI高潮动数据中心营收大增75

  财报发布后,英伟达总裁兼席实践官黄仁勋(Jensen Huang)和实践总裁兼席财务官科莉特·克雷斯(Colette Kress)等管出席随后召开的财报电话会议,解读财报重心并回应分析师发问。

  以下是分析师问答门径主要内容:

  好意思银好意思林证券分析师Vivek Arya:经管层在前边的简报中提到,大面前对公司在227财年的业务情况有定预期,公司的采购意向在某种进度上也反应了经管层对畴昔的信心。不外,我如故想跟进下,黄总,就面前的情况来看,公司现时有几相等进犯的云计较用户,本年这些大客户的成本开支还是接近7亿好意思元。不少投资者缅想,这么的成本开支界限想要在来岁络续增长并辞让易。同期,据咱们了解,其中有几公司现款流智商也有定压力。

  从这个角度来看,固然您对公司接下来的居品道路图、采购智商等面齐相等有信心,但我的问题是:您对客户络续扩大成本开支究竟有多大信心?换言之,在现时的大环境下,新财年您猜度客户还会络续扩大相干的成本开支吗?若是客户的成本开支法已毕陆续增长,在这么的大环境中,英伟达主张如何已毕自身的增长?

  黄仁勋:我对客户现款流陆续增长如故有信心的。

  原因其实相等纯粹。当今,咱们还是看到了代理式东说念主工智能(Agentic AI)的拐点,大也相识到AI智能体在宇宙范围内、在各种企业中的本质价值。

  正因如斯,大会在行业中看到其康健的算力需求。在如今全新的AI时期,个公司的算力就等同于公司收入。莫得算力,就法生成token;莫得token,就不行能已毕收入增长。是以,在如今这个AI时期,个公司的算力等同于收入。

  我相等驯服,在如今这个阶段,跟着Codex、Claude Code等AI器具的使用、用户对AI器具协助使命的重大关注,以及用户对企业洞开云平台的关注,面前,统共企业的ISV(立软件开发商)齐正在我方的器具、平台上尝试构建AI代理系统。因此,我驯服行业面前还是处在个明确的拐点:在这个拐点上,咱们需要为用户生成具备分娩力的、同期对云就业提供商来说是可盈利的token。

  因此,若是检朴单的逻辑来看,大可以用直不雅的式来剖判:计较的本色还是发生了变化。往日,软件运行在计较机之上,所需的计较资源界限相对有限,每年简短是3亿到4亿好意思元的成本开支;而当今,这些插足还是转向了AI技艺研发。而若是要AI生成充足的token,用户就必须具备充足的算力容量;而这些算力则会平直改变为增长,况且终改变为收入。

  摩根士丹利分析师Joe Moore:经管层前边提到了公司对Anthropic的投资,可能还包括对OpenAI等公司的计谋投资;同期,经管层也提到了英伟达的些作伙伴,比如英特尔(Intel)、诺基亚(Nokia)、以及 新念念科技(Synopsys)等等。

  然,面前英伟达还是处在通盘生态系统的中枢位置。能否请经管层与咱们谈谈,公司的这些投资在座计谋心仪味着什么?这些投资上演怎么的角?经管层是否将金钱欠债表视为器具,但愿用它来逾越持重英伟达在通盘生态系统中的地位,抑止已毕增长?

  黄仁勋:正如大所见,从根柢上说,英伟达的统共使命、投资齐以咱们的生态系统为中枢。也正因如斯,用户才会如斯看好咱们的业务。

  英伟达的生态系统其丰富,险些宇宙统共的初创公司齐在英伟达的平台上、在英伟达的生态系统中开展使命。咱们与每云就业商齐有作,也接入了各种腹地数据中心、参与到了遍布宇宙各地的边际计较场景和机器东说念主系统之中。可以说,数不胜数AI原生公司齐是构建在英伟达平台上的。

  因此,咱们但愿把捏住如斯重大的机遇。现时,咱们正处在全新计较时期的初期,计较平台正在发生休养。咱们但愿把所灵验户齐能来到英伟达的平台。本质上,咱们的切齐是成立在CUDA(NVIDIA出的通用并行计较平台和编程模子)之上。可以说,咱们的开始相等可以。

  跟着畴昔咱们抑止构建圆善的英伟达AI生态系统玉树储罐保温,论是AI、物理AI、AI物理、人命科学、生物学、机器东说念主,如故制造业,咱们齐但愿这些生态系统或者成立在英伟达的平台上。这也为咱们提供了个其珍重的契机,让咱们能在通盘技艺栈的各个层面对生态系统进行投资。

  此外,与往日比较,英伟达如今的生态系统要丰富得多。往日,从很猛进度上来说,咱们只是以GPU为中枢的计较平台公司;而当今,咱们还是发展成为AI计较基础步骤公司。在计较基础步骤的各个面,咱们齐领有我方的平台。从计较自己到AI模子、到蚁集,再到DPU,咱们一起领有圆善的计较技艺栈。

  正如我之前提到的,论是在企业应用、制造业、工业域、科学盘考,如故机器东说念主域,咱们在每个生态系统齐有其各自不同的技艺栈。咱们也会确保陆续抑止地对这些生态系统进行插足。

  因此,咱们畴昔的投资相等明确,也相等具有计谋:那等于要抑止扩张并加英伟达生态系统在行业中的笼罩范围和影响力。

  摩根大通分析师Harlan Sur:我看到蚁集业务在座数据中心业务结构中的占比正在陆续上升。在226财年期间,公司的蚁集业务收入每个季度齐已毕了同比加快增长。正如经管层提到的,226财年四季度,公司的蚁集业求已毕了简短3.6倍的同比增长。

  然,这主要获利于经管层在Scale-Up和Scale-Out蚁集居品组面的康健发扬。我紧记在客岁上半年,英伟达Spectrum以太网平台的年化运行收入界限简短在1亿好意思元掌握;而在客岁下半年,Spectrum平台的年化运行收入还是支持到了简短11亿到12亿好意思元。

  结公司面前的订单情况,尤其是推敲到Spectrum-6 以太网交换机的陆续上市,面前Spectrum相干业务的运行趋势如何?另外,预测本年(226年),经管层预期平台的运行收入大致会在什么水平?

  黄仁勋:咱们将我方定位为AI计较基础步骤公司。AI计较基础步骤不仅涵盖了CPU、GPU,同期咱们还发明了NVLink(英伟达开发出的种总线偏执通讯条约),使得单个计较节点可以扩张成个巨型计较机机架。此外,咱们还提倡并已毕了“机架计较”(rack-scale computing)这理念。换句话说,咱们并不是在委派单个计较节点,而是在委派整机架的计较系统。咱们会先用 NVLink在“机架内”把算力纵向作念大,再用Spectrum-X或InfiniBand在“机架之间”把界限横向铺开,这两种蚁集道路英伟达齐复旧。此外,咱们还可以通过Spectrum-X已毕跨数据中心的横向扩张。在咱们看来,蚁集自己等于计较平台的天然延迟。咱们将以洞开的式提供统共算力,让客户或者字据自身需求,目田遴荐、组出不同的扩张式,并将其集成进各自定制化的数据中心架构之中。

  NVLink的发明地面动了英伟达蚁集业务的发展。 每个计较机架齐会配备九个交换节点,而每个交换节点中又包含两颗芯片;畴昔,这个数目还会逾越增多。单个机架内所触及的交换界限也口角常惊东说念主的。

  面前,英伟达还是成为宇宙界限大的蚁集公司之。而若是单从以太网的角度来看,咱们简短是在两年前进入以太网交换市集的。我以为,今天的英伟达可能还是是宇宙大的以太网蚁集公司之,而且很快就会毫争议地成为。可以说,Spectrum-X以太网平台对咱们来说是次相等收效的冲破。天然,咱们对蚁集案遥远保持洞开格调。有些客户相等垂青InfiniBand所提供的低延迟和大界限智商,咱们会陆续复旧;也有些客户倾向基于以太网将蚁集度集成进通盘数据中心体系。

  因此,咱们造了种和会了东说念主工智能智商的以太网架构,让以太网自己具备在数据中心中进行智能处理的智商,而这恰是咱们的果断。Spectrum-X的能充分展示了咱们与其他同行的相反:当你有座1亿到2亿好意思元界限的AI工场时,只是1,甚而2的蚁集率与愚弄率支持,齐或者平直改变为实着实在的经济收益。

  英伟达的蚁集业务面前正处在速增长阶段。而这切的根柢原因在于,咱们构建的AI基础步骤智商其,而咱们的AI基础步骤业务自己也正在以惊东说念主的速率增长。

  Cantor Fitzgerald分析师C.J. Muse:我有点很好奇,经管层如何看待公司畴昔的道路图?咱们是否可以以为,畴昔英伟达会越来越关注针对不同使命负载或客户定制的芯片?高出是你们正在向各样化、可定制架构转型,经管层在这面的关注度是否会增多?

  黄仁勋:每个公司齐但愿尽量迟使用不同的架构变体,原因很纯粹:每次想要跨越不同的架构变体,就必须跨越接口;而每次跨接口齐会带来寥落的延迟和功耗。

  咱们并不摒除架构变体,本质上咱们还是在使用了,但咱们尽量只在别遴荐的情况下才使用。若是大看咱们的Grace Blackwell架构和Rubin架构,大会发现咱们采选了两个大型的、集式的有限晶片并整,这么可以减少跨架构接口的次数。咱们信赖,架构变体成本会平直影响竞争敌手的架构率。

  对英伟达来说,大常说咱们的势在软件。但其实软件势通常是由架构决定的。咱们的软件之是以,是因为咱们的架构自己相等出。无谓置疑,CUDA架构加、能,能先于现存的任何计较架构,而这正源于咱们特的架构操办。

  对于Groq和低延迟解码器,我在接下来的GTC大会上会和大共享多想法。纯粹来说,铝皮保温咱们的基础步骤之是以其无邪,恰是因为CUDA架构玉树储罐保温,咱们也将络续沿着这条道路进。咱们统共的GPU齐在架构上保持兼容。这就意味着,当我今天在Blackwell系统上化模子时,统共对软件栈和新模子的化使命也一样适用于Hopper和Ampere架构。正因如斯,英伟达A1即便部署多年,仍然或者保持行业先的能。

  架构的兼容让咱们或者大界限投资软件、工程和化使命,况且有信心通盘装配基础,论是云表、企业里面数据中心,如故不同GPU代际,齐能从中受益。这种策略也让咱们或者延长硬件的使用寿命,支持更动智商、无邪和研发速率,从而平直改变为客户的能势。

  至于Groq,大可以关注接下来的GTC大会。纯粹来说,咱们会把Groq手脚加快器整进咱们的架构,与咱们之前与Mellanox的整相访佛。

  伯恩斯坦盘考分析师Stacy Rasgon:我想跟进下全年环比增长的情况。在简报中,经管层提到本季度公司在数据中心业务的环比增长过1亿好意思元。预测新财年,尤其是跟着Rubin架构的插足使用,经管层如何看待这增长趋势?Blackwell架构还是为环比增长带来了相等著的加快,咱们是否可以猜度跟着Rubin架构的出,咱们也会不雅察到访佛的业务发扬?

  另外,我也但愿经管层能谈谈对游戏业务的预期。我剖判内存问题以偏执他要素对业务的影响。预测227财年(226天然年),经管层以为公司的游戏业务仍然或者已毕同比增长吗?如故由于内存要素,增长会濒临大压力?

  科莉特·克雷斯:我先从畴昔的收入情况谈起。我想再次强调,在推敲全年收入时,咱们会按季度来看收入发扬。

  在络续销售和委派Blackwell架构的同期,大也会看到Rubin架构进入市集。这是款相等出的AI架构,能让客户快速部署。咱们还是针对不同客户权术了多笔订单,来为他们提供复旧。

  天然,面前给出论断还为时过早。咱们法详情Rubin架构初期投产将咱们孝顺几许收入。咱们将在本年下半年开动迟缓进。但可以明确的是,客户需求康健,大的意思相等。咱们猜度险些所灵验户齐会采购Rubin架构。关键问题在于,Rubin架构会在何时进入市集,以及客户或者多快在我方的数据中心部署。

  接下来你的二部分问题,即咱们的游戏业务。固然咱们但愿或者提供多供应,但猜度畴昔几个季度供应会相等垂危。若是到年底情况有所,咱们的游戏业务可能会有契机已毕同比增长,但面前给出预期仍然为时过早。咱们会在有相干论断后时分与大新。

  花旗证券分析师Atif Malik:能否请经管层谈谈CUDA的进犯?尤其是当今大部分AI投资资金齐流向了理使命负载。

  黄仁勋:若是莫得CUDA,咱们根柢不知说念该如哪里理理使命负载。

  从几年前咱们出的TensorRT-LLM开动(它面前仍然是宇宙能强的理栈),想要化它或NVLink齐条目咱们发明新的并行化算法,这些算法成立在CUDA之上,用于分派使命负载和理任务,以充分愚弄 NVLink 72系统的总带宽。NVLink 72是项伟大的发明,已毕这交换技艺、团员交换机、构建系统机架齐相等迂回,但咱们收效已毕了这切,我信赖大齐明晰其中的难度。终效果令东说念主颤动:通过NVLink 72,咱们收效将每瓦能支持5倍,每好意思元能支持35倍,理能的飞跃相等著。

  大需要相识到的是,当今理就等同于客户收入。智能体生成了多量 tokens,果相等著。而当这些智能体在编码时,它们可能生成数千、数万甚而数十万个tokens,运行时分从几分钟到几小时不等。这些智能系统还会派生出不同的智能体相连使命,生成的tokens数目呈指数增长。因此,咱们需要以速率进行理。当理速率支持,每个token齐可以量化为收入,平直改变为客户的营收。在数据中心里,理能越,每生成个token就能平直增多云就业提供商(CSP)的收入。

  因为每个数据中心的电力齐是有限的。论领有几许数据中心,每个数据中心(论百兆瓦如故吉瓦)齐有功率上限。因此,领有能的架构就意味着每个token的功耗可以已毕小化,从而得回每瓦生成的收入大化,平直改变为可不雅的收入。

  每个大型云就业提供商当今齐剖判这点:成本开销插足可以改变为计较智商,而采选架构则意味着大化收入。因此,换句话说,计较智商就等同于收入。从这个意旨上来说,遴荐适的架构至关进犯。它不仅具有计谋意旨,而且平直影响公司的收入;遴荐每瓦能佳的架构,对用户来说险些等于切。

  Melius分析师Ben Reitzes:我的问题关系公司的毛利率。讨教经管层,公司毛利率保管在7高下的水平是否可陆续?预测226及227年,经管层对供应有哪些预期?这种毛利率水平可以保管到其时吗?再之后呢?在内存面,经管层是否有相干的更动进展可以与咱们知道?以便让咱们对耐久保管这水平的毛利率加有信心?

  黄仁勋:咱们毛利率进犯的杠杆,等于为客户带来代际能飞跃。这是关键的要素。

  若是咱们或者为用户提供每瓦能远摩尔定律的代际支持,况且每好意思元能著于系统成本和系统售价,那么咱们就或者陆续保管现存的毛利率水平。这等于纯粹、亦然进犯的观点。

  英伟达之是以发展得如斯赶紧,有几个原因。先,由于咱们履历了AI技艺拐点,宇宙对tokens的需求还是呈指数增长。我信赖大对这点齐看得很明晰,云表运行了六年的旧GPU齐还是花费,算力价钱正在高潮。由此可见,为当代软件运行提供所需的计较量需求也在呈指数增长。

  咱们的计谋是每年齐要委派圆善的AI基础步骤。本年,咱们出了六款新芯片,接下来的Rubin架构也会出多款新芯片。对于每代居品,咱们齐快乐会在每瓦能和每好意思元能上已毕多倍支持。而咱们之是以或者作念到这点,是因为咱们领有端化、协同的芯片操办智商,或者将这种价值和能势平直委派给客户。这等于咱们保证利润率的中枢、关键要素。

  New Street Research分析师Antoine Chkaiban:我的问题关系天外数据中心。面前有些客户正在推敲斥地天外数据中心。您以为这个想法的可行如何?跟着时分移,情况会如何演变?

  黄仁勋:面前来看,固然面前的经济大环境并不睬想,但跟着时分移会有所。

  天外环境的运行式与地球天渊之别:天外中的太阳能丰富,空间充裕;从散热的角度来看,天外的温度低,但莫得空气流动,因此唯的散热式是通过传。为此,咱们需要建造极度大的散热器。液冷散热然不行行,因为太重且复杂。因此,咱们在地球上使用的法,在天外环境中需要有所调整。

  尽管如斯,有许多计较任求本质上相等适在天外中进行。英伟达的Hopper架构还是是宇宙上个进入天外的GPU。天外中GPU的佳应用场景之是 离别率成像:愚弄光学系统和东说念主工智能进行不同角度的重投影、图像降噪,已毕大界限、离别率、速的成像。若是将海量影像数据传回地球再处理,不仅率低,还相等耗时;在天外中平直处理数据为,咱们可以过滤掉用信息,只在发现酷爱内容时才把图像传回地球。

  因此,我信赖东说念主工智能技艺在天外中将领有相等酷爱且后劲重大的应用场景。

  科莉特·克雷斯:如大所见,咱们的Top 5客户齐是大界限客户,面前它们孝顺了咱们约5的总收入。除此以外,咱们还与各式不同类型的公司作,酿成了各样化的用户客群,包括AI模子开发商、企业客户、计较机构等等。天然,咱们还有好多其他不同类型的客户。是以你说得其实很对,咱们的非大界限用户群也增长得相等快。

  英伟达在统共云就业提供商的平台上齐领有康健的市集位。同期,咱们当今也领有为各样化的客户群体,遍布宇宙各地。这种各样化也为咱们带来了明势,让咱们或者好地就业于各种客户。

  黄仁勋:这亦然英伟达生态系统的势之。咱们的平台成立在CUDA之上,是唯或者在每个云表、每台电脑、每个边际斥地上可用的加快计较平台。

  咱们当今也在布局电信域。咱们信赖,畴昔的线电将一起由AI驱动,畴昔的线蚁集也将成为AI计较平台。这是势必趋势,但需要有东说念主去发明、已毕这些可能的技艺。咱们为此创建了个名为Arial平台。面前,咱们的技艺险些还是应用在统共机器东说念主、统共自动驾驶汽车中。

  在我看来,CUDA 的势在于其用处理器能和无邪,让咱们或者科罚言语处理、计较机视觉、机器东说念主、人命科学、物理等险些统共类型的AI和计较算法问题。对咱们而言,领有各样的客户群是英伟达大的势之。

  二,即便咱们的处理器可以编程,若是咱们莫得我方的生态系统,或者说不去耕我方的生态系统(包括咱们面前正在作念的些投资和陆续增强生态系统的举措),咱们其实很难在别东说念主的生态系统以外已毕增长。借助咱们创建的平台,英伟达得以不受为止地扩张和发展我方的生态系统。

  后,还有个相等进犯的要素,那等于咱们与OpenAI、Anthropic、xAI、Meta以及险些统共开源社区齐有作。举例在Hugging Face上有约15万个AI 模子,它们一起齐是在CUDA平台上运行。咱们或者复旧统共这些开源模子,同期,这也让咱们的平台具有度的通用、易用和安全。

  上述这些举措为咱们带来了客户和平台的各样,也让咱们的技艺在每个国齐可用、复旧宇宙的生态系统,逾越促进了客户结构的各样化。

  (陆续新中。。。)

海量资讯、解读,尽在财经APP

包袱剪辑:刘亮堂 玉树储罐保温

相关词条:管道保温     塑料管材生产线     锚索    玻璃棉毡    PVC管道管件粘结胶

友情链接:

产品中心 新闻资讯 联系鑫诚

Powered by 管道保温施工队_鑫诚防腐保温工程有限公司 RSS地图 HTML地图

Copyright Powered by365建站 © 2025-2034