新闻中心
News
联系我们
 

电 话:86-755-82910368

传 真:86-755-82910673

邮 箱:sail-group@sail-group.com.cn

邮 编:518001

黄仁勋:万亿Token工厂崛起,SaaS模式的丧钟已敲响

时间:26-03-23 来源:长江商学院EMBA

黄仁勋:万亿Token工厂崛起,SaaS模式的丧钟已敲响

长江商学院EMBA紧跟时事前沿,梳理演讲核心要点:

推理拐点的到来:推理已成为AI最核心的工作负载,Token是新的大宗商品,推理性能直接决定收入;

AI工厂时代:数据中心已从文件存储设施演变为Token生产工厂,未来每家公司都将以“AI工厂效率”来衡量自身竞争力;

OpenClaw智能体革命:OpenClaw开启了智能体计算时代,企业IT正在从工具时代走向智能体时代,每家企业都需要制定OpenClaw战略;

物理AIChatGPT时刻:具身智能正在规模化落地,自动驾驶、工业机器人、人形机器人共同构成物理AI的下一个重大机遇。

以下为本次大会的原文记录:

CUDA的二十年

黄仁勋,创始人兼首席执行官:

欢迎来到GTC。我想先提醒大家,这是一个技术会议。

一大早大家就排起了长队。很高兴在这里见到各位。在GTC,我们要谈技术,谈平台。英伟达有三个平台。

各位可能以为我们主要只谈其中一个,就是与CUDA X相关的平台。我们的系统是另一个平台,现在又多了一个新平台,叫做“AI工厂”。这些我们都会谈到,最重要的是,我们还要谈生态系统。

但在开始之前,我要感谢几位暖场环节的主持人,他们做得非常出色,包括AI投资公司Conviction创始人郭睿、红杉资本合伙人林君叡(英伟达的第一位风险投资人),还有科技投资人加文·贝克(Gavin Baker,英伟达的第一家主要机构投资者)。这三位对技术有很深的理解,对当下行业动向洞若观火,而且在技术生态系统中的覆盖面非常广。还有我亲自挑选来参加今天活动的所有VIP,全明星阵容。感谢各位。    

英伟达是一家平台公司,如各位所知。我们有技术,有平台,有丰富的生态系统。今天,总规模高达100万亿美元的行业,基本上百分之百都汇聚于此。有450家公司赞助了这次活动。感谢各位。    

1000场技术会议,2000位演讲者。这次会议将覆盖AI这个“五层蛋糕”的每一层——从土地、电力和机房外壳(shell)等基础设施,到芯片、平台、模型,当然最后也是最重要的,是那些能让这个行业真正起飞的应用。

这一切都始于CUDA。今年是CUDA诞生20周年。

我们在CUDA上深耕已有20年。20年来,我们一直专注于这个架构。这是一项革命性的发明,叫做SIMT(单指令多线程)。你只需编写标量代码,它能衍生出多线程应用。最近我们又增加了Tile结构,帮助开发者为张量核心编程,这些数学结构是当今AI的根基。我们有数千种开源的工具、编译器、框架和库。公开的项目大概有几十万个。CUDA已经真正融入了每一个生态系统。    

这张图基本上描述了英伟达的全部战略。归根结底,最难实现的就是最底层的这个东西:装机量。我们花了20年,现在全球有数亿颗运行CUDAGPU和计算系统。我们在每一个云中,在每一家计算机公司里,服务着几乎每一个行业。  

CUDA的庞大装机量就是飞轮加速的原因。装机量吸引开发者,开发者创造新算法,实现突破,比如深度学习,还有很多其他突破。这些突破带来全新市场,围绕它们形成新的生态系统,吸引其他公司加入,又创造了更大的装机量。这个飞轮正在加速。英伟达软件库的下载量呈爆炸式增长,规模非常大,而且比以往任何时候增长得都快。正是这个飞轮,让这个计算平台能够支撑这么多应用、这么多新突破。  

但最重要的是,它也让这些基础设施拥有极长的使用寿命。原因很简单:能够在CUDA上运行的应用太多了。我们支持AI生命周期的每一个阶段,服务于每一个数据处理平台,加速各种不同类型的基于科学原理的求解器。    

应用范围如此之广,一旦你采用了英伟达GPU,它的使用寿命会非常长。这也是为什么我们大约六年前出货的Ampere架构GPU,在云中的价格不降反升。所有这一切之所以可能,根本上是因为装机量大,飞轮转得快,开发者覆盖广。当这一切发生,再加上我们持续更新软件,计算成本就会下降。   

加速计算极大地提升了应用程序的运行速度。同时,我们在其生命周期内持续维护和更新软件,你不仅在第一次使用时能获得性能提升,随着时间推移,还能持续享受加速计算带来的成本降低。我们愿意维护、愿意支持全球每一块这样的GPU,因为它们都是架构兼容的。我们之所以愿意这样做,是因为装机量非常大。如果我们发布一个新的优化,它能使数百万颗GPU受益,造福全球每个人。   

这种动态组合使得英伟达的架构能够扩大覆盖范围,加速增长,同时降低计算成本,最终又进一步刺激了新的增长。所以CUDA是这一切的核心。但我们的旅程实际上始于25年前——GeForce    

我知道各位中有很多人是玩着GeForce长大的。GeForce是英伟达最成功的营销活动。早在你自己还负担不起的时候,我们就开始吸引你这位未来的客户了。你的父母付了钱,让你成为英伟达的客户。他们年复一年地为你买单,直到有一天,你成为了一名出色的计算机科学家,成为了真正的客户、真正的开发者。   

但这一切都是GeForce25年前打下的基础。我们从那里起步,一路走到CUDA25年前,我们发明了可编程着色器。这是一个在当时完全看不出发明必要性的想法:让加速器变得可编程。世界上第一个可编程加速器——像素着色器,就出现在25年前。正是它引导我们不断深入探索。  

5年后,我们发明了CUDA。这是我们做过的最大的投资之一,当时我们其实根本负担不起。它消耗了公司绝大多数的利润,但我们还是让CUDA搭乘GeForce的便车,进入了每一台电脑。我们全身心投入创建这个平台,因为我们强烈地感受到了它的潜力。最终,正是公司对它的执着,尽管起初困难重重,但我们日复一日地坚信它,历经13代产品、20年光阴,现在我们让CUDA变得无处不在。   

像素着色器当然带来了GeForce的革命。然后10年前,我们推出了RTX,为现代计算机图形时代彻底重新设计了架构。GeForceCUDA带向了世界,也因此让亚历克斯·克里舍夫斯基 (Alex Krizhevsky)、伊利亚·苏茨克维 (Ilya Sutskever)、杰弗里·辛顿 (Geoffrey Hinton) 、吴恩达 (Andrew Ng)以及许多其他人发现,GPU可以帮助他们加速深度学习。这引发了AI的大爆炸。    

10年前,我们决定融合可编程着色,并引入两个新想法:一个是光线追踪,包括硬件光线追踪,这极其困难;另一个在当时是个新想法——大约10年前,我们就认为AI将彻底改变计算机图形。就像GeForceAI带给世界一样,现在AI将反过来彻底改变计算机图形的整个运作方式。今天,我要向各位展示未来的方向。这是我们下一代图形技术,我们称之为神经渲染,即3D图形与AI的融合。它就是DLSS 5    

计算机图形活过来了,我们把可控的3D图形、结构化数据与生成式AI、概率计算结合在一起。一个是完全预测性的,另一个是概率性的但高度逼真。我们把这两个想法结合起来,通过结构化数据实现完美控制,同时又进行生成。结果是,内容既惊艳美丽,又完全可控。这种融合结构化信息和生成式AI的概念,会一个行业接一个行业地重演。结构化数据是可信任AI的基础。

结构化数据与非结构化数据的加速平台

现在我要带大家看一张技术架构图。

结构化数据——大家熟悉的SQLSparkPandasVelox,以及SnowflakeDatabricksAmazon EMRAzure FabricGoogle BigQuery等重要平台,都在处理数据框(Data Frame)。这些数据框就像巨型电子表格,承载着商业世界的全部信息,是企业计算的基本事实(Ground Truth)。

AI时代,我们需要让AI来使用结构化数据,并对其实现极致加速。过去,加速结构化数据处理是为了让企业更高效地运转。而未来,AI将以远超人类的速度使用这些数据结构,AI智能体也将大量调用结构化数据库。

非结构化数据方面,向量数据库、PDF、视频、音频等构成了世界上绝大多数的数据形态——每年生成的数据中,约90%是非结构化数据。过去,这些数据几乎完全无法被利用:我们读取它们,存入文件系统,仅此而已。我们无法查询,也难以检索,原因在于非结构化数据缺乏简单的索引方式,必须理解其含义与语境。而现在,AI可以做到这一点——借助多模态感知与理解技术,AI能够读取PDF文档、理解其含义,并将其嵌入可供查询的更大结构之中。

英伟达为此创建了两个基础库:

cuDF:用于数据框、结构化数据的加速处理

cuVS:用于向量存储、语义数据和非结构化AI数据的处理

这两个平台将成为未来最重要的基础平台之一。

今天,我们宣布与多家企业达成合作。IBM——SQL语言的发明者,将使用cuDF加速其WatsonX Data平台;Dell与我们联合打造了Dell AI数据平台,整合cuDFcuVS,并在NTT Data的实际项目中实现了大幅性能提升;Google Cloud方面,我们现在不仅加速Vertex AI,还加速BigQuery,并与Snapchat合作将其计算成本降低了近80%

加速计算带来的好处是三位一体的:速度、规模、成本。这与摩尔定律的逻辑一脉相承——通过加速计算实现性能飞跃,同时持续优化算法,让所有人都能享受到持续下降的计算成本。

英伟达构建了加速计算平台,其上汇聚了众多库:RTXcuDFcuVS等等。这些库整合进全球云服务和OEM体系,共同触达全球用户。

此外,与主要云服务商的合作:

Google Cloud:我们加速Vertex AIBigQuery,与JAX/XLA深度集成,同时在PyTorch上表现卓越——英伟达是全球唯一一家在PyTorchJAX/XLA上均表现出色的加速器。我们将Base10CrowdStrikePumaSalesforce等客户引入Google Cloud生态。

AWS:我们加速EMRSageMakerBedrock,与AWS有着深度集成。今年令我格外兴奋的是,我们将把OpenAI引入AWS,这将大幅推动AWS云计算的消耗增长,帮助OpenAI扩展区域部署和计算规模。

Microsoft Azure:英伟达100 PFLOPS超算是我们构建的第一台超级计算机,也是第一台部署在Azure上的超算,这奠定了与OpenAI合作的重要基础。我们加速Azure云服务和AI Foundry,合作推进Azure区域扩展,并在Bing搜索上深度协作。值得一提的是,我们的“保密计算(Confidential Computing)”能力——确保即便是运营商也无法查看用户数据和模型——英伟达GPU是全球首批支持保密计算的GPU,可支持OpenAIAnthropic模型在全球各地区云环境中的保密部署。以Synopsys为例,我们加速其全部EDACAD工作流,并部署于Microsoft Azure

Oracle:我们是Oracle的第一个AI客户,我为能够第一次向Oracle解释AI云的概念感到自豪。此后他们发展迅猛,我们也为其引入了CohereFireworksOpenAI等众多合作伙伴。

CoreWeave:全球第一家AI原生云,专为GPU托管和AI云服务而生,拥有出色的客户群,增长势头强劲。

Palantir + Dell:三方联合打造了全新的AI平台,基于Palantir的本体论平台(Ontology Platform)和AI平台,可在任何国家、任何气隙隔离环境下、完全本地化地部署AI——从数据处理(向量化或结构化)到AI的完整加速计算栈,无所不包。

英伟达与全球云服务商建立了这种特殊的合作关系——我们将客户引入云端,这是一种互利共赢的生态。

垂直整合,横向开放

英伟达是全球第一家垂直整合、横向开放的公司。

这一模式的必要性非常简单:加速计算不是芯片问题,也不是系统问题,其完整表述应为应用加速。CPU可以让计算机整体运行得更快,但这条路已走到瓶颈。未来,唯有通过应用或领域特定的加速,才能持续带来性能飞跃和成本下降。

这正是英伟达必须深耕一个又一个库、一个又一个领域、一个又一个垂直行业的原因。我们是一家垂直整合的计算公司,没有其他路可走。我们必须理解应用,理解领域,深刻理解算法,并能够将其部署在任何场景下——数据中心、云端、本地、边缘乃至机器人系统。

同时,英伟达保持横向开放,愿意将技术整合进任何合作伙伴的平台,让全世界都能享受到加速计算的红利。

本届GTC的参会者结构充分体现了这一点。本次参会者中,金融服务行业的比例最高——希望来的是开发者,不是交易员。我们的生态系统覆盖了上游和下游供应链。无论是成立50年、70年还是150年的企业,去年都迎来了历史最佳年份。我们正处于某件非常、非常重大的事情的起点。

CUDA-XcuDNN:各行业的加速计算引擎

在各个垂直领域,英伟达均已深度布局,例如:

自动驾驶:覆盖范围广泛,影响深远

金融服务:量化投资正从人工特征工程转向超级计算机驱动的深度学习,迎来其“Transformer时刻”

医疗健康:正在迎来属于自己的“ChatGPT时刻”,涵盖AI辅助药物发现、AI智能体支持诊断、医疗客服等方向

工业:全球规模最大的建设浪潮正在展开,AI工厂、芯片厂、数据中心厂纷纷落地

娱乐与游戏:实时AI平台支持翻译、直播、游戏互动,以及智能购物代理

机器人:深耕十余年,三大计算机架构(训练计算机、仿真计算机、机载计算机)齐备,本次展会共有110款机器人亮相

电信:约2万亿美元规模的行业,基站将从单一通信功能演进为AI基础设施平台,相关平台名为Aerial,与诺基亚、T-Mobile等企业均有深度合作

以上所有领域的核心,正是我们的CUDA-X库——这是英伟达作为算法公司的根本所在。这些库是公司最核心的资产,让计算平台得以在各个行业发挥实际价值。

其中最重要的库之一,是cuDNNCUDA深度神经网络库),它彻底革新了人工智能,引发了现代AI的大爆炸。

大家刚才看到的一切都是仿真——包括基于物理原理的求解器、AI代理物理模型,以及物理AI机器人模型。一切均为仿真,没有任何手工动画或关节绑定。这正是英伟达的核心能力所在:通过对算法的深刻理解与计算平台的有机结合,解锁这些机遇。

AI原生企业与新计算时代

你们刚才看到了沃尔玛、欧莱雅、摩根大通、罗氏、丰田等定义当今社会的行业巨头,也有一大批大家从未听说过的公司——我们称之为AI原生企业。这份名单极为庞大,里面有OpenAIAnthropic,以及众多服务于不同垂直领域的新兴企业。

过去两年,这一行业经历了惊人的腾飞。风险投资流入初创企业的资金规模达到1,500亿美元,创人类历史之最。更重要的是,单笔投资规模首次从数百万美元跃升至数亿乃至数十亿美元。原因只有一个:这是史上第一次,每一家此类公司都需要大量计算资源和大量Token。这个行业正在创造、生成Token,或者为来自AnthropicOpenAI等机构的Token增值。

正如PC革命、互联网革命、移动云革命各自孕育出一批划时代的企业,这一代计算平台变革同样将诞生一批极具影响力的公司,成为未来世界的重要力量。

推动这一切的三大历史性突破

过去两年究竟发生了什么?三件大事。

第一:ChatGPT,开启生成式AI时代(2022年底至2023年)

它不仅能感知和理解,还能生成独特内容。我展示了生成式AI与计算机图形的融合。生成式AI从根本上改变了计算的方式——计算从检索式转变为生成式,这深刻影响着计算机架构、部署方式和整体意义。

第二:推理AIReasoning AI),以o1为代表

推理能力使AI能够自我反思、规划、分解问题——将它无法直接理解的问题拆解为可处理的步骤。o1让生成式AI变得可信,能够依据真实信息进行推理。为此,输入contextToken量和用于思考的输出Token量大幅增加,计算量随之显著提升。

第三:Claude Code,首个智能体模型

它能读取文件、编写代码、编译、测试、评估并迭代。Claude Code彻底革新了软件工程——英伟达100%的工程师都在使用Claude CodeCodexCursor中的一种或多种,没有一位软件工程师不借助AI助力。

这是一个全新的拐点——你不再是询问AI“是什么、在哪里、怎么做”,而是让它“创建、执行、构建”,让它主动使用工具、读取文件、分解问题、付诸行动。AI从感知,到生成,到推理,再到如今真正能够完成工作。

过去两年,推理所需的计算量增长了约10,000倍,使用量增长了约100倍。我一直认为,过去两年计算需求增长了100万倍——这是所有人的共同感受,是OpenAI的感受,是Anthropic的感受。如果能获得更多算力,就能生成更多Token,收入就会提升,AI就会变得更智能。推理拐点已然到来。

万亿美元的AI基础设施时代

去年此时,我在这里表示,我们对BlackwellRubin2026年之前的需求和采购订单有高度信心,规模约为5,000亿美元。今天,在GTC一年之后,我站在这里告诉大家:展望到2027年,我看到的数字至少是1万亿美元。而且我确信,实际的计算需求将远不止于此。

2025年是英伟达的推理年(Year of Inference)。我们希望确保,在训练和后训练之外,也能在AI生命周期的每个阶段都保持卓越,使已投资的基础设施能够持续高效运转,且有效使用寿命越长,单位成本越低。

与此同时,AnthropicMeta正式加入NVIDIA平台,与此共同代表了全球三分之一的AI算力需求。开源模型已接近前沿水平,无处不在。

英伟达是目前全球唯一一个能够运行所有AI领域——语言、生物学、计算机图形、计算机视觉、语音、蛋白质与化学、机器人等——所有AI模型的平台,无论边缘还是云端,无论何种语言。英伟达架构对所有这些场景均具备通用性,这使我们成为成本最低、置信度最高的平台。

目前,英伟达60%的业务来自全球前五大超大规模云服务商,剩余40%遍布区域云、主权云、企业、工业、机器人、边缘计算等各个领域。AI的覆盖广度本身就是其韧性所在——这毫无疑问是一次全新的计算平台变革。

Grace BlackwellNVLink 72

大胆的架构革新

Hopper架构还处于鼎盛时期,我们就决定彻底重新架构系统,将NVLink8路扩展为NVLink 72,对计算系统进行全面分解重构。Grace Blackwell NVLink 72是一次巨大的技术押注,对所有合作伙伴而言都不容易,在此向所有人表示诚挚感谢。

同时,我们推出了NVFP4——不只是普通的FP4,而是一种全新类型的张量核心和计算单元。我们已经证明,NVFP4可以在无精度损失的情况下实现推理,同时带来巨大的性能提升和能效提升,并且同样适用于训练。此外,DynamoTensorRT-LLM等一系列新算法相继问世,我们甚至为优化内核而专门投入数十亿美元建造了一台超级计算机,称之为DGX Cloud

结果证明,我们的推理性能令人瞩目。来自Semi Analysis的数据——这是迄今为止最全面的AI推理性能评测——显示英伟达在每瓦Token数和每Token成本两个维度上均遥遥领先。原本摩尔定律可能给H200带来1.5倍的性能提升,但我们做到了35倍。Semi AnalysisDylan Patel甚至说:“黄仁勋保守了,实际上是50倍。”他说得没错。

我在此援引他的话:“Jensen sandbagged(黄仁勋保守报数)。”

英伟达的每Token成本是全球最低,目前无人能及。原因正在于极致协同设计(Extreme Co-design)。以Fireworks为例,在英伟达更新全套软件和算法之前,其平均Token速度约为每秒700个;更新后接近每秒5,000个,提升约7倍。这就是极致协同设计的力量。

AI工厂:从数据中心到Token工厂

数据中心过去是存储文件的地方,现在它是生产Token的工厂。每一家云服务商、每一家AI公司,未来都将以“Token工厂效率”作为核心经营指标。

这是我的核心论点:

纵轴:吞吐量(Throughput)——在固定功率下每秒生成的token

横轴:交互速度(Token Speed)——每次推理的响应速度,速度越快,可使用的模型越大、context越长,AI越智能

Token是新的大宗商品,一旦成熟,将分层定价:

免费层(高吞吐、低速度)

中级层(~每百万Token 3美元)

高级层(~每百万Token 6美元)

高速层(~每百万Token 45美元)

超高速层(~每百万Token 150美元)

Hopper相比,Grace Blackwell在最高价值层提升了35倍吞吐量,并引入全新层级。以简化模型估算,将25%功率分别分配给四个层级,Grace Blackwell可比Hopper多产生5倍的收入。

Vera Rubin:下一代AI计算系统

Vera Rubin是一个完整的、端到端优化的系统,专为智能体(Agentic)工作负载设计:

大型语言模型计算核心:NVLink 72 GPU集群,处理前填充(Prefill)和KV Cache

全新Vera CPU:专为极高单线程性能设计,采用LPDDR5内存,兼具卓越能效,是全球唯一使用LPDDR5的数据中心CPU,适合AI智能体工具调用

存储系统:BlueField 4 + CX 9,面向AI时代的全新存储平台,全球存储行业100%加入

CPO Spectrum X交换机:全球首款共封装光学以太网交换机,已全面量产

Kyber机架:全新机架系统,支持144GPU组成单一NVLink域,前端计算、后端NVLink交换,形成一台巨型计算机

Rubin Ultra:下一代超算节点,竖插式设计,配合Kyber机架,支持更大规模NVLink互联

Vera Rubin100%液冷,安装时间从两天缩短至两小时,采用45°C热水冷却,大幅降低数据中心冷却压力。这次Satya(纳德拉)已发文确认,首台Vera Rubin机架已在微软Azure上线运行,我为此深感振奋。

Groq整合:推理性能的极致延伸

我们收购了Groq团队并获得其技术授权。Groq是一种确定性数据流处理器(Deterministic Dataflow Processor),采用静态编译和编译器调度,拥有大量SRAM,专为推理单一工作负载优化,具备极低延迟和极高Token生成速度。

然而,Groq的内存容量有限(500MB片上SRAM),难以独立承载大模型的参数和KV Cache,限制了其大规模应用。

解决方案正是Dynamo——一套推理调度软件。我们通过Dynamo将推理管线解聚(Disaggregate):前填充(Prefill)及注意力机制的解码(Decode)在Vera Rubin上完成(需要大量算力和KV Cache存储);前馈网络解码(Feed-Forward Network Decode)即Token生成部分,在Groq上完成(需要极高带宽和低延迟)。

两者通过以太网紧密耦合,借助特殊模式将延迟减少约一半。在Dynamo这一“AI工厂操作系统”的统一调度下,整体性能提升35倍,并开辟了NVLink 72此前无法触及的全新推理性能层级。

若工作负载以高吞吐为主,使用100% Vera Rubin

若大量工作负载为代码生成等高价值Token生成,可引入Groq,建议比例约为25% Groq + 75% Vera Rubin

Groq LP30由三星代工,目前已进入量产,预计Q3开始出货。感谢三星的全力配合。

技术路线图

将此前技术进步量化:在2年时间内,1吉瓦AI工厂的Token生成速率将从2,200Token/秒提升至7亿Token/秒,提升350倍。这就是极致协同设计的力量。

Blackwell(当前):Oberon标准机架系统,铜缆扩展至NVLink 72,可选光学扩展至NVLink 576

Vera Rubin(当前):Kyber机架,NVLink 144(铜缆);Oberon机架,NVLink 72 + 光学,扩展至NVLink 576Spectrum 6,全球首款CPO交换机

Vera Rubin Ultra(即将推出):新一代Rubin Ultra GPULP35芯片(首次集成NVFP4),进一步提升数倍性能

Feynman(下一代):全新GPULP40芯片(由英伟达与Groq团队联合打造,集成NVFP4);全新CPU——RosaRosalyn);BlueField 5CX 10;同时支持铜缆和CPO两种扩展方式的Kyber机架

路线图明确:铜缆扩展、光学扩展(Scale-Up)、光学扩展(Scale-Out)三条路线并行推进,我们需要所有合作伙伴在铜缆、光纤和CPO方面持续扩产。

NVIDIA DSX平台:

AI工厂的数字孪生平台

AI工厂越来越复杂,但组成它的各类技术供应商过去从未在设计阶段相互协作,直到在数据中心才“相遇”——这显然不够。

为此,我们创建了Omniverse,以及基于其上的NVIDIA DSX平台——一个供所有合作伙伴在虚拟世界中共同设计和运营吉瓦级AI工厂的平台。DSX提供:

机架级机械、热学、电气、网络仿真系统

与电网的连接,实现协同节能调度

数据中心内基于Max-Q的动态功耗和冷却优化

保守估计,这套系统可将能源利用效率提升约2倍,在我们谈论的规模上,这是非常可观的收益。Omniverse从数字地球开始,将承载各种规模的数字孪生,我们正与全球合作伙伴共同构建人类历史上最大的计算机。

此外,英伟达正在进军太空。Thor芯片已通过辐射认证,正在卫星中运行。我们正与合作伙伴开发Vera Rubin Space-1,用于建设太空数据中心。在太空中只能依靠辐射散热,热管理是核心挑战,我们正集结顶尖工程师攻关。

OpenClaw:智能体时代的操作系统

Peter Steinberger开发了一款名为OpenClaw的软件。这是人类历史上最受欢迎的开源项目,在短短几周内便超越了Linux三十年的成就。

OpenClaw本质上是一个智能体系统(Agentic System),能够管理资源,访问工具、文件系统和大型语言模型;执行调度、定时任务;将问题逐步分解,并调用子智能体;支持任意模态的输入输出(语音、视频、文字、邮件等)。

用操作系统的语法来描述,它确实就是一个操作系统——智能体计算机的操作系统。Windows让个人计算机成为可能,OpenClaw让个人智能体成为可能。

每一家企业都需要制定自己的OpenClaw战略,正如我们都需要Linux策略、HTML策略、Kubernetes策略一样。

OpenClaw之前的企业IT:数据和文件进入系统,流经工具和工作流,最终变成供人类使用的工具。软件公司创建工具,系统集成商(GSI)和咨询公司帮助企业使用这些工具。

OpenClaw之后的企业IT:每一家SaaS公司都将转变为AaaSAgentic as a Service,智能体即服务)公司——不只是提供工具,而是提供专精特定领域的AI智能体。

但这里有一个关键挑战:企业内部的智能体可以访问敏感数据、执行代码、与外部通信。这在企业环境中必须得到严格管控。

为此,我们与Peter合作,将安全性融入企业级版本,推出了:

NeMo Claw(参考设计):基于OpenClaw的企业级参考框架,集成NVIDIA的全套智能体AI工具包

Open Shield(安全层):已集成至OpenClaw,提供策略引擎、网络护栏、隐私路由,确保企业数据安全

NeMo Cloud:可下载使用,并与所有SaaS企业的策略引擎对接

这是企业IT的文艺复兴,一个原本2万亿美元规模的产业,即将成长为数万亿美元规模,从提供工具转向提供专业化的AI智能体服务。

我完全可以预见,未来公司里的每一位工程师都将拥有年度Token预算。他们年薪可能是几十万美元,我会额外给他们相当于薪资一半的Token配额,让他们的产出放大10倍。“入职附带多少Token配额”已经成为硅谷的新晋招聘话题。

每一家企业未来都将既是Token的使用者(供工程师使用),也是Token的生产者(为其客户提供服务)。OpenClaw的意义不可低估,它和HTMLLinux一样重要。

Nemotron联盟,投资数十亿美元

推进AI基础模型研发

在自定义智能体(Custom Claw)方面,我们提供了NVIDIA自研的前沿模型:

模型领域:Nemotron大型语言模型、Cosmos世界基础模型(World Foundation ModelGROOT通用人形机器人模型、Alpamayo自动驾驶、BioNeMo数字生物学、Phys-AI AI物理。

我们在每一个领域都处于技术前沿,并承诺持续迭代——Nemotron 3之后有Nemotron 4Cosmos 1之后有Cosmos 2Groq也将迭代到第二代。

Nemotron 3OpenClaw中名列全球三大最佳模型之列,处于前沿水平。Nemotron 3 Ultra将成为有史以来最强的基础模型,支持各国构建主权AI

今天,我们宣布成立Nemotron联盟,投资数十亿美元推进AI基础模型研发。联盟成员包括:BlackForest LabsCursorLangChainMistralPerplexityReflectionSarvam(印度)、Thinking MachinesMira Murati的实验室)等。一个又一个企业软件公司加入,将NeMo Claw参考设计和NVIDIA智能体AI工具包整合到自身产品中。

物理AI与机器人

数字智能体在数字世界中行动——撰写代码、分析数据;而物理AI则是具身化的智能体,也就是机器人。

本次GTC共有110款机器人亮相,几乎囊括了全球所有机器人研发企业。英伟达提供三台计算机(训练计算机、仿真计算机、机载计算机)和完整的软件栈及AI模型。

自动驾驶方面,自动驾驶的“ChatGPT时刻”已经到来。今天,我们宣布四家新合作伙伴加入英伟达RoboTaxi Ready平台:比亚迪、现代、日产、吉利,合计年产量1,800万辆。加上此前的奔驰、丰田、通用,阵容进一步壮大。我们同时宣布与Uber达成重大合作,将在多个城市部署并接入RoboTaxi Ready车辆。

工业机器人方面,ABBUniversal RoboticsKUKA等众多机器人企业与我们合作,将物理AI模型与仿真系统相结合,推动机器人在全球制造产线的落地。

电信方面,卡特彼勒(Caterpillar)和T-Mobile也在其列。未来,无线基站将不再只是一个通信节点,而是一个NVIDIA Aerial AI RAN——能够实时感知流量、调整波束成形,实现节能增效的智能化边缘计算平台。

源自--长江商学院EMBA

   
上一篇 下一篇
张近东清零:家族资产隔离为何彻底失效没有上一篇