黄仁勋推出英伟达版“小龙虾”NemoClaw:支持“一键安装”

凤凰网科技讯 3月17日,黄仁勋在GTC大会上宣布推出全新的NemoClaw软件栈,旨在为“小龙虾”OpenClaw智能体平台提供“一键安装”体验。

在大会现场的主题演讲中,黄仁勋展示了NemoClaw的便捷性。他仅通过一条指令,就快速部署了英伟达的Nemotron模型与新发布的OpenShell运行环境。黄仁勋将这一突破提升到了战略高度,他形象地比喻道:“正如Mac和Windows成为了个人电脑的操作系统,OpenClaw将成为‘个人AI的操作系统’。这不仅是产品的发布,更预示着软件行业一个新时代的开启。”

在技术层面,NemoClaw的亮点在于其对OpenClaw平台的无缝优化。通过NVIDIA Agent Toolkit软件,NemoClaw实现了对OpenClaw的“一键式”适配。其内置的OpenShell环境提供了一个隔离的沙箱,让每个人都能轻松打造专属的高性能安全 AI 助手。

这一架构允许AI智能体在严格确保数据隐私和网络安全的前提下灵活调用模型。它既可以调用本地专属系统运行的开源模型(如Nemotron),也可以通过创新的“隐私路由器”安全地接入云端的前沿大模型,兼顾了性能与安全。

为了支持这些全天候在线的AI智能体,NemoClaw展现了极强的硬件兼容性。从搭载GeForce RTX的个人电脑和笔记本,到基于RTX PRO的专业工作站,乃至强大的DGX Station和新发布的DGX Spark AI超级计算机,NemoClaw都能够充分利用广泛的专属算力硬件,确保AI智能体的流畅运行。

AI数据中心降温成问题,谷歌洽购中国液冷系统

谷歌

谷歌

凤凰网科技讯 北京时间3月17日,据路透社报道,知情人士称,谷歌公司的一支采购团队访问了中国内地,与深圳英维克科技和其他中国内地公司洽谈,拟采购数据中心液冷设备。

液冷系统在设备周围或上方循环水或其他液体,在AI数据中心中已变得至关重要,因为高密度计算产生的热量超过了传统风冷系统所能处理的范围。

知情人士称,这支采购团队来自谷歌中国台湾业务,他们在本月造访了内地,反映出液冷系统零部件供应紧张。谷歌团队在访问内地期间已与英维克会面,还计划与至少另一家中国公司接洽。

这些洽谈凸显出,全球AI数据中心基础设施建设竞赛不仅导致先进芯片供应紧张,也使得较低价值设备供应吃紧,同时表明中国供应商在全球数据中心发展中扮演的角色日益重要。

根据摩根大通的一份报告,受英伟达以及部署定制AI芯片的云服务提供商需求的推动,全球AI服务器液冷系统市场规模预计将从去年的89亿美元激增至2026年的逾170亿美元。

截至发稿,谷歌、英维克尚未就此置评。(作者/箫雨)

更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。

网友抹黑胖东来被起诉后反向求职:我错了 顺便给我找份工作

快科技3月17日消息,近日,胖东来官方社交账号发布《胖东来关于侵权行为曝光台(七)》,直指部分网络用户无视法律与道德底线,对企业进行误读、恶意中伤、侮辱诽谤,故意制造社会矛盾,造成恶劣影响。

胖东来表示,已对各类侵权行为固定取证,将坚决通过法律途径追责维权,维护企业与个人人格权益。

胖东来声明对于侵害人格权益和企业商誉的各类侵权行为,已进行取证,将坚决通过法律途径依法追责。

网友抹黑胖东来被起诉后反向求职:我错了 顺便给我找份工作

其中提到一位侵权用户无事实依据,编造极端虚构情节,借叙事之名实施的恶意侵权,涉嫌侵害胖东来公司名誉权。

搜索查询可知,公告中提及的上述侵权用户在账号主页不仅发布了道歉签名,还宣称“胖东来,我错了,原谅我吧,顺便给我找份工作。”

网友抹黑胖东来被起诉后反向求职:我错了 顺便给我找份工作

SK集团董事长崔泰源:存储芯片短缺或持续至2030年

【CNMO科技消息】当地时间周二(3月17日),韩国SK集团董事长崔泰源在出席英伟达GTC大会时发出预警:由于芯片生产存在系统性瓶颈,全球内存芯片短缺的情况很可能持续到2030年。

在大会现场,崔泰源向记者表示,随着市场对人工智能需求的指数级增长,半导体供应链的紧张态势正在加剧。他明确指出:“我认为芯片短缺的情况可能会持续到2030年。”这意味着,从现在算起,整个行业还要面临长达四年的供应压力。

这并非崔泰源首次就此发声。上个月在华盛顿特区参加活动时,他就曾透露,当前AI存储芯片的供需缺口已超过30%。作为全球领先的内存半导体制造商以及英伟达高带宽存储芯片(HBM)的核心供应商,SK海力士的掌舵人此番表态无疑为整个行业定下了“供应紧俏”的长期基调。

崔泰源分析指出,AI行业对HBM的庞大需求是造成当前“晶圆荒”的根源。而要缓解这一瓶颈,需要大量的资本支出和时间沉淀。“公司至少需要四到五年时间来增加晶圆产能,”他坦言。

在价格走势方面,崔泰源的预期更为直接。他预计,包括DRAM、NAND闪存以及HBM在内的各类存储芯片价格将持续上涨,且“涨势可能会持续较长时间”。这不仅意味着下游企业的成本压力将持续存在,也预示着半导体行业将进入一个利润丰厚的“超级周期”。

在访谈中,崔泰源还透露了一项重大资本运作计划:SK海力士正在积极考虑在美国发行存托凭证(ADR)上市,以扩大其全球投资者基础。行业分析师普遍认为,一旦成功在美股上市,将有助于市场重新评估这家内存巨头的价值,摆脱当前在韩国本土市场的估值束缚。

并且,在大会上黄仁勋预测,随着AI模型的迭代,市场对英伟达下一代Blackwell芯片及Vera Rubin芯片的需求将达到天文数字,直接打消了市场对AI需求可能放缓的疑虑。此外,黄仁勋还发布了采用三星技术的“Grok3 LPU”芯片,并宣布该芯片由三星电子代工,预计下半年出货。

Kimi回应马斯克点赞:你的火箭也不错

凤凰网科技讯 3月17日,Kimi官方账号回应马斯克对其最新成果的点赞,称“你的火箭造得也不错”。

据报道,近日,Kimi团队发布技术报告,提出全新Attention Residuals(注意力残差)机制,对深度学习领域沿用近十年的传统残差连接实现颠覆性重构,迅速获得全球关注。

传统残差连接以“固定等权累加”传递信息,层数增加易导致浅层信息稀释、训练效率低、稳定性差。

而Kimi的创新相当于给AI装了“智能筛选器”,将Transformer注意力机制迁移到模型深度维度,让每一层动态筛选此前有用信息、压低冗余,提升传递效率。

实测显示,48B参数模型训练效率提升1.25倍,科学推理、数学题作答成绩分别提升7.5%、3.6%,有效解决传统模型训练失衡问题。

以挑剔著称的马斯克转发研究并评论“Kimi的作品令人印象深刻”,其旗下xAI正处重组期,此次认可足见技术分量。

小米罗福莉AI团队最新突破,使算力成本直降71.2%

IT之家 3 月 17 日消息,据智能纪元 AGI 昨日(3 月 16 日)报道,前 DeepSeek 研究员、小米 MiMo 大模型负责人罗福莉发表论文,与北京大学联合研发出统一的资源管理系统 ARL-Tangram

ARL-Tangram 采用统一的动作级公式和弹性调度算法,不仅满足异构资源约束,而且最大限度地缩短动作完成时间(ACT),以及实现定制化异构资源管理器。

在真实世界的智能体强化学习任务上的评估表明,ARL-Tangram 可以将平均 ACT 提高高达 4.3 分。可将强化学习训练的步骤持续时间缩短至多 1.5 倍,并节省高达 71.2% 的外部资源

这是罗福莉在小米发表的第二份突破性技术成果论文。去年 10 月,小米 AI 团队携手北京大学联合发布一篇聚焦 MoE 与强化学习的论文,其中已经出现罗福莉的名字,成为罗福莉在小米发表的首篇论文成果。

在 2025 小米人车家全生态合作伙伴大会上,罗福莉迎来入职后首秀。她在朋友圈官宣加入小米 Xiaomi MiMo 大模型团队:

智能终将从语言迈向物理世界。我正在 Xiaomi MiMo,和一群富有创造力、才华横溢且真诚热爱的研究员,致力于构建这样的未来,全力奔赴我们心目中的 AGI!

马斯克亲自点赞,Kimi动了十一年没人敢碰的东西

马斯克亲自点赞,Kimi动了十一年没人敢碰的东西

作者:苗正

导语: AI界最“理所当然”的设计之一,终于被质疑了

科技博主Avi Chawla在X上发了一条长帖,详细拆解了月之暗面Kimi团队刚刚发布的一篇技术报告。

帖子发出后不久,马斯克本人在下面回复了一句:“月之暗面做出了令人印象深刻的结果”(Impressive work from Kimi.)

马斯克在AI领域的表态向来以挑剔著称,没少骂过Anthropic和OpenAI,甚至曾直言说Anthropic的图标像是某种人体器官。

他自己的xAI最近还在经历大规模重组,多位华人联合创始人离职,Grok的表现也不尽如人意。

可就在这个节骨眼上,他主动对一家中国AI公司的技术论文表示认可,多少有些出人意料。

说回被马斯克点赞的这个东西,其实是有点抽象的,因为它压根不是一个模型。

Kimi团队提出了一种新的方式,试图替换掉Transformer架构里一个自2015年以来就几乎没人动过的基础组件。

这是一篇纯粹的架构层面的技术论文。

虽然说这篇论文的影响,未必会被普通用户感知到,可实际上,它触碰的是整个深度学习的基石。

01

月之暗面到底改了什么

要理解这篇论文在做什么,得先搞清楚一个背景。现代大语言模型,无论是GPT、Claude,还是国内的豆包、DeepSeek,哪怕是Kimi自己的K2.5,其底层架构都是Transformer。

Transformer之所以能训练到几十层甚至上百层而不崩溃,都是因为一个叫“残差连接(Residual Connection)”的机制在起作用。

残差连接的原理其实很简单。

每一层网络在做完自己的计算之后,把自己的输出和输入加在一起,然后传到下一层去再做计算。这样做的好处是,梯度在反向传播时可以沿着一条“高速公路”直达底层,不会因为层数太深而消失。

这个设计来自何恺明在2015年参与的ResNet论文,后来被Transformer原封不动地继承了下来。

但这时候就有一个不大不小的问题,这种“加法”是完全平等的。

第一层的输出和第四十层的输出,在最终的隐藏状态里享有同等的权重,都是1。没有任何机制去判断哪一层的信息更重要、哪一层的贡献可以被忽略。随着层数增加,隐藏状态的数值会线性增长,早期层的信息逐渐被稀释,后面的层想要产生影响就必须输出更大的数值,这反过来又加剧了不稳定性。

就像咱们所有人拉个微信群,一起讨论晚上吃什么,每个人的发言权重完全一样,不管谁说的有道理谁在瞎扯,最后群主只能把所有消息从头到尾读一遍,这就导致他越往后翻越记不住前面说了啥。

这个现象在学术上被称为“PreNorm稀释”。

Kimi团队注意到,这个问题和早年RNN面临的困境有一种结构上的对称性。

RNN是在时间维度上做固定权重的累加,每个时间步的信息被等权地压缩进同一个隐藏状态,导致长距离依赖难以捕捉。后来Transformer用注意力机制替代了RNN的这种线性累加,让模型可以根据内容动态地决定该关注序列中的哪些位置,这才有了后来的一切。

两者的区别在于,RNN就像上课,老师讲到哪你就听到哪,只能从头听到尾,没记住的要么看笔记,要么再次从头来。Transformer则是录播网课,可以随时翻回去看之前最重要的部分。

但在深度维度上,同样的问题一直存在,却没有人用同样的思路去解决。每一层的输出仍然是被等权相加的,模型没有能力根据当前输入去选择性地从某些层提取信息、忽略另一些层。

Kimi团队表示,标准残差连接本质上是“深度维度上的线性注意力”,他们要做的,是把它升级为“深度维度上的softmax注意力”。

于是他们提出了一个“理想版”的方案,叫做全注意力残差(Full Attention Residuals)。

具体做法是给每一层赋予一个可学习的查询向量,这个向量会对之前所有层的输出做一次注意力计算,产生一组归一化的权重。

然后当前层的输入不再是之前所有层输出的简单求和,而是按照这组权重的加权组合。权重是输入相关的,也就是说,不同的token在经过同一层时,可能会从不同的历史层中提取不同的信息。

那我们还是用前面微信群的例子。现在群主不用从头到尾翻聊天记录了,有个助手帮他标出“这几条最值得看”,不同的话题还会标出不同的重点消息。

理想丰满现实骨感,全注意力残差这个方案其实“不靠谱”。

大规模训练时,模型通常会使用流水线并行和激活重计算来节省显存,这意味着之前层的输出不会被保留在内存里。

如果要做全注意力,就需要把所有层的输出都存下来并在流水线的不同阶段之间传递,内存和通信开销都会变得不可接受。

为了解决这个问题,Kimi团队又提出了块注意力残差(Block Attention Residuals)。

思路是把所有层分成若干个块,每个块内部仍然使用传统的残差连接做求和,但块与块之间使用注意力机制来做选择性聚合。这样需要存储和传输的不再是每一层的输出,而是每个块的汇总表示,内存占用从 O(Ld)降到了 O(Nd),其中 N 是块的数量,通常只有8个左右。

这就相当于是把刚才那个微信群分成了八个小组,每组先内部讨论出一个结论,群主只需要看八条小组总结就行。

在此基础上,他们还做了一系列工程优化。

比如跨阶段缓存消除了流水线并行中的冗余传输,两阶段推理策略通过在线softmax把跨块注意力的计算分摊到各个块的处理过程中。最终的结果是,注意力残差作为标准残差连接的替代品,训练时的额外开销很小,推理时的延迟增加不到2%。

Kimi团队又做了两个实验。

一是scaling law实验,验证这个改进在不同模型规模下是否一致有效。结果显示,注意力在所有计算预算下都优于基线,其效果相当于用1.25倍的计算量训练出的基线模型。

二是Kimi拿自己的大模型上做了实战验证。模型参数量为480亿,用超过一万亿个词的数据做了完整的预训练。然后在科学问答、数学推理、代码生成、综合知识等一系列主流测试中,加了块注意力残差的版本全面超过了没加的版本。

从训练动态的分析来看,块注意力残差确实缓解了PreNorm稀释问题。各层输出的幅度不再随深度线性增长,而是保持在一个相对稳定的范围内;梯度的分布也更加均匀,也不再会出现浅层梯度过大、深层梯度过小的失衡现象。

除此以外,论文中还做了一个统一的结构化矩阵分析,证明了标准残差连接和之前的各种变体(比如 Highway Networks、DeepNet 的 scaled residuals 等)本质上都是深度维度上的线性注意力的特例。

简单来说就是,自2015年ResNet以来,在残差连接这个板块,没有任何实质性的变化。而Kimi的这篇论文,是第一个既有理论依据,又能大规模实际部署且低成本的方案。

马斯克也正是因为这个结论,才亲自下场点赞Kimi。

02

融资、争议和马斯克的那个赞

月之暗面正处在一个微妙的时间节点上,那就是上市。

2025年12月底,月之暗面完成了5亿美元的C轮融资。投后估值43亿美元。两个月后,月之暗面完成超7亿美元的C+轮融资,由阿里、腾讯、五源资本等老股东联合领投,投后估值突破100亿美元。

到了3月中,月之暗面最新投前估值已上升至180亿美元,新一轮10亿美元融资正在推进中,3个月内估值实现超4倍增长。

实际上月之暗面最近的收入增长得很快,Kimi K2.5模型发布不到一个月,累计收入就超过了2025年全年总收入。

根据全球支付平台Stripe的数据,Kimi个人订阅用户的支付订单数在1月环比增长了 8280%,2月又环比增长了123.8%,已经进入Stripe全球榜单前十。

但融资顺利并不意味着没有争议。

就在几天前,OpenClaw创始人彼得·斯坦伯格公开对月之暗面的Kimi Claw产品提出了质疑。事

情的起因是,月之暗面此前推出了OpenClaw的云端一键部署服务Kimi Claw,它的逻辑有悖于OpenClaw的设计理念。

有用户在X上询问这个产品是否值得尝试并 @了斯坦伯格,斯坦伯格的回应很直接:他们有没有把安全文档作为必读项展示给用户?

斯坦伯格的核心关切在于,OpenClaw的逻辑是“本地优先”。agent运行在用户自己的设备上,数据不经过任何第三方。驱动它的大模型只提供操作指令,不触碰用户数据。

但KimiClaw的做法恰恰相反,它把数据搬到了云端,也就是月之暗面自己的服务器里。在安全和隐私层面,这两种模式的风险等级完全不同。

斯坦伯格对KimiClaw的质疑在社区中产生了实际影响。

最初询问斯坦伯格的这位X用户随后发文表示,鉴于斯坦伯格提到的安全性问题,他暂时不会使用这个产品。

对于正在高速融资的月之暗面来说,来自OpenClaw创始人的公开批评,多少会在海外技术社区中制造一些负面情绪。

然后马斯克的那条回复出现了。

虽然这两件事是风马牛不相及的,但在舆论场上,它们会不可避免地被放在一起解读。

一边是OpenClaw创始人对月之暗面产品的安全质疑,另一边是马斯克对月之暗面研究论文的公开认可。

对于正在进行新一轮融资的月之暗面来说,后者的时机几乎不能更好。在资本市场的叙事逻辑里,这种来自顶级人物的认可,往往比任何分析报告都更有说服力。

当然了,不应该过度去解读马斯克的一条推文。他在X上的互动频率极高,对各种技术话题都会随手点评,一句“impressive”并不意味着他会投资月之暗面或者在xAI中采用月之暗面的方法。

但不管怎么说,马斯克那条回复发出去之后,很多原本不关注架构研究的人,也开始去翻这篇论文了。一个十一年没人碰过的组件被重新打开,接下来会发生什么,谁也不知道。

儿歌App推送低俗广告,宝宝巴士子公司被罚30万元

IT之家 3 月 17 日消息,宝宝巴士(福建)网络科技有限公司因发布低俗广告,于 2 月底被福州市仓山区市场监督管理局罚款 30 万,没收违法所得 3.68 元。

宝宝巴士(福建)网络科技有限公司成立于 2013 年 2 月,法定代表人为唐光宇,注册资本 4490 万人民币,经营范围包括动漫游戏开发、数字文化创意软件开发等。股东信息显示,该公司由宝宝巴士股份有限公司全资持股。

据澎湃新闻报道,2025 年 10 月,有网友反映称,打开宝宝巴士旗下一款“宝宝巴士儿歌”App 后,开屏时跳转到低俗擦边直播等不适合儿童观看的第三方广告。此事引发大量关注。

2025 年 10 月 29 日,宝宝巴士相关负责人回应称,出现在 App 上的问题广告是第三方平台接入广告,此次事件严重影响了用户的使用体验,对此他们表示诚挚的歉意。

宝宝巴士表示,出现不良广告一事,公司高度重视,迅速开展自查自纠工作。针对此次广告事件暴露出的漏洞与不足,公司立即进行整改与优化:第一时间下线了相应平台上的所有广告,并及时与平台沟通,完善广告主的审核和屏蔽机制;针对广告平台无法监控的广告主,宝宝巴士自行研发了广告强制拦截功能,对其实施强制拦截。

微软电脑管家宣布上线一键卸载龙虾新功能!自动清理 全程无需手动操作

快科技3月17日消息,日前,开源AI智能体OpenClaw(俗称“龙虾”)爆火,AI“养龙虾”成为全网热点。

然而,“养龙虾”背后,隐患和风险也很大,国家互联网应急中心、工信部接连发布提示,直接点名“龙虾”存在严重安全隐患。

有些已经安装OpenClaw的人,已经打算将其卸载,网上也出现不少卸载教程,甚至付费卸载服务。

今日,微软电脑管家宣布新功能上线,支持龙虾一键卸载或一键停止,目前已支持OpenClaw和EasyClaw,之后将陆续覆盖更多“龙虾”平台。

据介绍,一键卸载功能完整覆盖了进程清退、安装清理、本地数据清除等多个环节。

点击卸载后,系统会自动停止本地龙虾相关进程,调用龙虾平台自身的标准卸载流程,并自动清理安装包、安装目录及本地数据文件,覆盖配置、插件、日志等本地残留,减少遗漏风险。

微软电脑管家宣布上线一键卸载龙虾新功能!自动清理 全程无需手动操作

全程无需手动操作,也无需查阅教程,点击即可完成,适合彻底卸载、安全清退、合规要求等场景。

如果不想彻底卸载,只是想让龙虾暂时停下来,微软电脑管家的一键停止功能,可自动识别并停止本地龙虾相关进程与服务,同时确认相关端口已释放,不再对外暴露。

停止过程中,所有配置与数据均会保留,随时可以一键恢复,适合暂停使用、排查问题或临时关停等场景。

官方表示,使用前需将微软电脑管家更新至3.20.7.0及以上版本,目前新功能正在灰度上线中。

微软电脑管家宣布上线一键卸载龙虾新功能!自动清理 全程无需手动操作

到明年赚它1万亿美元!黄仁勋撂狠话,英伟达龙虾轰动全场,Groq新芯片首发

智东西

作者 | ZeR0 程茜

编辑 | 漠影

就在刚刚,全球最大规模的AI盛会——英伟达GTC 2026盛大开幕!

智东西3月16日圣何塞现场报道,美西时间11点18分,英伟达创始人兼CEO黄仁勋身穿标志性皮衣登场,发表了一场激情澎湃的主题演讲。

200亿美元买下的Groq技术、掀起“全民养虾”盛世的OpenClaw、一大波全新开放模型、L4自动驾驶最新进展,全部浓缩在这场信息密度极高的演讲之中。

先上重点,英伟达发布其旗舰AI计算平台Vera Rubin的5大机架级系统,推出全新AI推理芯片Groq LPU 3,宣布7款芯片全面生产,并带来太空计算设备Space-1 Vera Rubin Module,将AI计算版图扩展到地球之外。

7款芯片分别是Rubin GPU、Vera CPU、ConnectX-9 SuperNIC、BlueField-4 DPU、NVLink 6 Switch、Spectrum-X 102.4T CPO,以及新集成的Groq 3 LPU

英伟达还公布了最新产品路线图:

对于Rubin架构,Oberon系统采用铜缆纵向扩展,还可以使用光学扩展,将NVLink扩展到576。黄仁勋说,铜缆纵向扩展和光学纵向扩展,英伟达都会采用。

Rubin Ultra芯片正在流片,即将到来;还有全新的LP35芯片——将首次融入英伟达的NVFP4计算结构,带来又一个几倍的速度提升。

Oberon之后,Kyber系统采用铜缆纵向扩展,还将有Kyber CPO纵向扩展——首次同时支持铜缆和共封装光学的纵向扩展。

计划在2028年发布的英伟达AI数据中心扛鼎之作们,也被一次性曝光:Feynman GPU(定制HBM)、LP40 NVLink、Rosa CPU、Bluefield-5 DPU、NVLink 8 CPO、Spectrum7 204T CPO、ConnectX-10 SuperNIC

在2小时10分钟的演讲中,英伟达密集甩出超过20项重磅发布,涉及AI基础设施、智能体、推理、开放模型、机器人、自动驾驶、企业级AI等,这些也是今年GTC大会的核心话题。

今年恰逢CUDA诞生20周年,黄仁勋想说的话很多,最言简意赅的当属下面这张图,基本概括了英伟达100%的战略布局

CUDA庞大的装机基数吸引开发者,开发者创造新算法,算法突破催生新技术,新技术开辟全新市场,全新市场构建新生态,更多企业加入生态,进而扩大装机基数——这个飞轮,正在加速转动。

20年前,英伟达发明了CUDA,这是其有史以来最重大的投资之一,消耗了公司绝大部分利润,导致当时的英伟达几乎负担不起。但历经初期的重重困难,历经13代产品、整整20年的坚持,如今,CUDA已无处不在。

黄仁勋宣布,英伟达与IBM达成深度合作,并晒出与谷歌云、AWS、微软Azure等云巨头的合作案例。“今年我特别兴奋的一件事是,我们将把OpenAI带到AWS。”

他提到过去两年,ChatGPT、生成式AI、Claude Code三件事持续推动AI浪潮,英伟达的计算需求已经爆表,现货价格飞涨,推理的拐点已经到来。

回顾整场演讲,几个掌声雷动时刻,堪称“人气王”:

1、黄仁勋预言:到2027年将坐拥1万亿美元订单

黄仁勋估计英伟达2025年订单额约为5000亿美元,并大胆预测,到2027年,这一数字将翻番,至少会达到1万亿美元

2、龙虾一出,全场欢呼

在萌版红色龙虾出现在大屏幕的刹那,观众席瞬间沸腾!果然论起炸场,还得看今年AI领域的“头号顶流”——开源AI智能体框架OpenClaw。

为开发者掏心掏肺的英伟达,这次直接端出“养龙虾全家桶”:软件包括英伟达版龙虾NemoClaw、智能体基础模型Nemotron 3 Ultra、智能体工具包,硬件有个人AI电脑DGX Spark和桌面级AI超算DGX Station

大会期间,英伟达每天都在GTC Park举办build-a-claw部署活动,帮参会者免费装“龙虾”。参会者带上自己的NVIDIA DGX Spark或GeForce RTX笔记本电脑,就能在英伟达专家的帮助下本地部署智能体,打造自己的专属AI助手。英伟达还诚意拉满,给OpenClaw爆红之路做了个精致的回顾视频。

OpenClaw创始人Peter Steinberger特意发推文安利:“用OpenShell和 NemoClaw烹饪真的太有趣了!🦞”

3、英伟达机器人全家福亮相

黄仁勋放出一张最新机器人大合照,有30多台机器人,包括比亚迪、库卡、智元、小鹏、吉利的机器人。

黄仁勋谈道,机器人是一个50万亿美元的制造业市场,英伟达已在此深耕十年,本届大会现场将展示110台机器人,全球几乎每一家机器人公司都在与英伟达合作。

4、“雪宝”机器人压轴登场,跟黄仁勋热聊

“这里有很多人形机器人,但我最喜欢的之一……是一款迪士尼机器人。”黄仁勋夸奖一响,《冰雪奇缘》电影同款的“雪宝”机器人闪亮登场!

“雪宝”机器人先是出现在一段展示“全球首次大规模物理AI部署已经到来”的影片里,当迪士尼Newton Snow Solver物理引擎将“雪宝”所在的冰雪场景和彩色糖果场景丝滑切换,现场响起热烈的掌声。

影片一结束,真正的“雪宝”机器人就走了出来,与黄仁勋热聊互动,逗乐观众。

5、魔性收尾:Q版黄仁勋、龙虾和机器人组乐队

大会收尾别出心裁,黄仁勋数字人与一群机器人、一只萌版龙虾,一起拍了一支魔性音乐MV,歌词把本届GTC的核心干货唱了个遍,曲调也很上头。(文末附上了歌词全文)

今年GTC大会人气相当火爆,超过30000名参会者齐聚圣何塞,有1000多场技术分论坛、2000多位演讲嘉宾。英伟达将在本届GTC大会上发布大约100个库、70个模型及40个模型。

一、5大机架组出Vera Rubin巨型AI超算,Groq 3 LPU芯片丝滑融入英伟达全家桶

“我们每Token的成本是全球最低的,无法被超越。”黄仁勋说,“我之前说过,如果你选择了错误的架构,即便它是免费的,也还是不够便宜。”

在他看来,只有在AI工厂安置了最好的计算系统,才能获得最低的token成本,而英伟达的token成本基本无可匹敌,原因在于极致的协同设计

全新Vera Rubin平台是当前英伟达瞄准AI推理计算市场的王牌产品:7款芯片、5种机架级计算机、1台革命性AI超算,专为智能体打造——仅用10年,就将算力提升了4000万倍

在GTC主题演讲中,黄仁勋一口气介绍了Vera Rubin平台的5款全新机架级系统:

NVIDIA Vera Rubin NVL72 GPU机架

NVIDIA Groq 3 LPX推理加速器机架

NVIDIA Vera CPU机架

NVIDIA BlueField-4 STX存储机架

NVIDIA Spectrum-6 SPX以太网机架

它们以统一的MGX模块化架构进行深度协同设计,可自由组合,按负载密度和价格梯度灵活部署,加快产品上市速度,服务于整个AI工厂。

当这些汇聚在一起,意味着Vera Rubin平台将扩展整个AI工厂的收入机会。

目前,7款全新芯片已全面量产,可在超大型AI工厂中规模化部署。

基于Vera Rubin的产品将从下半年开始由英伟达的合作伙伴提供。

1、Vera Rubin NVL72 GPU机架

Vera Rubin NVL72系统集成了由NVLink 6链接的72颗GPU与36颗Vera CPU,以及ConnectX-9 SuperNIC和BlueField-4 DPU。

相较前代Blackwell平台,在Vera Rubin平台上训练大型混合专家模型时,所需GPU数量仅为1/4,并在AI推理方面,实现推理吞吐量提升10倍,token单位成本降至原来的1/10

黄仁勋认为,token是新的大宗商品,一旦达到拐点、走向成熟,它将会分层细分,不同模型尺寸、智能、速度、上下文长度对应不同的价格。英伟达在每一层都提升吞吐量。

注:图中免费层(千问3 235B 32K),中级层(Kimi K2.5 1T 128K),高级层(GPT MoE 2T 128K),旗舰层(GPT MoE 2T 400K)

吞吐量需要大量算力,延迟和交互性需要巨大的带宽。由于芯片面积有限,因此追求高吞吐量和追求低延迟,实际上是互相冲突的目标。

英伟达通过引入Groq技术来解决这一冲突,在最贵的旗舰层将性能提升35倍。

如果将图表里的曲线向右延伸,想要每秒1000个token的服务,NVLink 72就会力不从心,因为没有足够的带宽。

而这,恰恰是Groq发挥作用的地方。

2、Groq 3 LPX推理加速器机架

去年12月,英伟达买下AI芯片创企Groq非独家协议和核心成员的交易轰动科技圈。业界密切关注Groq的LPU芯片是否会与英伟达GPU形成竞争。

现在,答案揭晓,LPU并不是来取代GPU的,而是来加入GPU这个家的

在英伟达的布局里,Rubin性能强,LPU带宽高、延迟低,两者优势恰好互补。

因此,英伟达推出全新NVIDIA Groq 3 LPU,实现GPU超强算力与LPU超高带宽的融合。

来看一组对比:

一张Rubin GPU拥有3360亿颗晶体管、288GB HBM4内存、22TB/s带宽、50PFLOPs算力(NVFP4)、 2.5T(HBM4)。

而一张Groq 3 LPU只有980亿颗晶体管、500MB SRAM,内存容量仅为Rubin HBM4的1/500,算力达1.2PFLOPS。但其SRAM带宽高达150TB/s,是Rubin带宽的约7倍

在此基础上,英伟达发布Groq 3 LPX机架

这款新机架可支持256张Groq 3 LPU,共有128GB片上SRAM、315PFLOPS算力、640TB/s扩展带宽,可扩展至超过1000张LPU。

黄仁勋说,Groq如此吸引人的原因在于:其计算系统是一种确定性数据流处理器,静态编译,由编译器调度——编译器预先确定何时执行计算,数据同步到达,所有这些都在软件中静态预排,没有动态调度。

该架构设计配备了大量SRAM,专为推理这一个单一工作负载而设计。

需要大量的Groq芯片,才能存储Vera Rubin的参数规模以及必须与之配套的KV Cache,这使得Groq受到一定限制。

对此,英伟达用Dynamo软件重新构建推理的管线,使适合的工作放在Vera Rubin上运行,然后将解码生成部分,也就是低延迟、带宽受限的挑战性工作负载部分,卸载到Groq上。这就将两款各具极端优势的处理器统一起来。

协同设计的LPX架构与Rubin GPU紧密耦合,LPX作为token加速器,叠加在拥有高吞吐量的Vera Rubin之上,两者合计可将运行万亿参数模型时提供每兆瓦推理吞吐量提升35倍。Groq 3 LPU由三星代工,已进入量产,预计下半年出货,大约在第三季度。

3、NVIDIA Vera CPU机架

智能体模型的训练和部署推理都离不开CPU。GPU需要调用CPU来执行工具调用、SQL查询和代码编译等任务,CPU的速度至关重要。

英伟达将Vera CPU称作“专为智能体AI工作负载打造的最佳CPU”。

Vera搭载全新Olympus核心,是全球唯一使用LPDDR5的数据中心CPU,结合高性能与高能效的核心设计、高带宽内存子系统以及第二代英伟达可扩展计算Fabric,能在各类智能体应用场景和强化学习极端条件下提供更快的响应速度。

相比传统x86 CPU,Vera单线程性能提升50%,每核心内存带宽提升至3倍,能效翻倍

今日,英伟达发布全新NVIDIA Vera CPU机架

该机架搭载256台液冷Vera CPU,提供400TB内存、300TB/s内存带宽,集成64颗BlueField-4 DPU,全面兼容Vera Rubin与MGX生态系统。

英伟达已完成初步芯片测试,Vera在各类工作负载上的性能提升从2倍到超过5倍不等。

4、BlueField-4 STX存储机架

随着智能体应用规模扩大,数据需求也在膨胀。

传统数据中心提供大容量的通用存储,但缺乏AI智能体所需的即时响应能力。随着上下文窗口增长、AI能力提升,传统存储路径和数据通路会拖慢AI推理速度、降低GPU利用率。

为此,英伟达推出全新的BlueField-4 STX存储机架

这是一个原生存储基础设施,基于BlueField-4 DPU,结合Vera CPU和ConnectX-9 SuperNIC,可将GPU内存无缝扩展至POD计算集群中。

STX提供了一种高带宽共享层,用于存储和检索大语言模型及智能体AI工作流所产生的海量KV Cache数据。

该机架可实现能效比提升至4倍,企业数据翻页速率提升至2倍,同时让AI工厂的上下文记忆每秒token处理速率快5倍

5、Spectrum-6 SPX以太网机架

Spectrum-6 SPX以太网用于全数据中心横向扩展的互连网络,让以上所有系统连成整体。

与传统可插拔收发器相比,带有共封装光学器件(CPO)的Spectrum-X以太网光子技术实现了多达5倍的光学功率效率和10倍的弹性。

6、发布Vera Rubin DSX AI工厂参考设计和Omniverse DSX数字孪生蓝图

要在数据中心部署上述全新计算集群和架构,必须考虑如何运营,并帮助整个数据中心生态系统实现效能提升。

因此,英伟达发布Vera Rubin DSX AI工厂参考设计,这是一个AI基础设施蓝图,概述了如何设计、构建、操作整个AI工厂基础设施堆栈,可最大限度提高每瓦token和整体实际吞吐量,提高系统弹性并加快首次生产的时间。

基于Rubin平台部署DSX架构后,AI工厂能在固定功耗下,实现能效比提升30%,同时增加30%的AI算力部署规模。

NVIDIA Omniverse DSX蓝图现在提供NVIDIA Vera Rubin DSX AI工厂参考设计,为大型AI工厂设计和模拟提供数字孪生。

开发者通过以下几个API接入:

DSX Sim,用于物理、电气、热力和网络仿真;

DSX Exchange,用于AI工厂运营数据交换;

DSX Flex,用于电网与数据中心之间安全的动态功率管理;

DSX Max-Q,用于动态最大化Token吞吐量。

7、NVIDIA RTX PRO 4500 Blackwell服务器版

在GTC期间,英伟达还发布了NVIDIA RTX PRO 4500 Blackwell服务器版,为全球应用广泛的企业数据中心和边缘计算平台(包括本地部署和云端)带来多工作负载GPU加速功能。

8、Vera Rubin AI太空计算模块

“我们已经进入太空了,”黄仁勋说,“我们有抗辐射的GPU,我们在卫星上进行成像。未来,我们还将在太空中建造数据中心。”

这很复杂,所以,英伟达正与合作伙伴研发一款新型计算机,称作NVIDIA Space-1 Vera Rubin Module,将发射入轨并在太空中建立数据中心。

这是一款面向太空优化的AI计算模块,支持实时感知、决策和自主运作,将数据中心级AI计算性能带到轨道数据中心、地理空间智能和自主空间与运营。

在太空中没有传导、没有对流,只有辐射散热,所以必须想办法冷却这些系统,英伟达有很多优秀的工程师正在研究。

二、发智能体工具包、桌面级AI超算,全方位助攻安全“养龙虾”

随着OpenClaw爆火,智能体的“ChatGPT时刻”已经来临。

黄仁勋评价说,OpenClaw是人类历史上最受欢迎的开源项目,仅仅几周内就做到,超越了Linux用30年取得的成就。

在他看来,OpenClaw开源了,本质上就是一个“智能体计算机的操作系统”,与Windows使得PC得以实现没区别,如今,OpenClaw使个人智能体的创建得以实现。

因为OpenClaw的吉祥物是一只红色龙虾,中国开发者更喜欢用“龙虾”来称呼这个智能体,并将部署OpenClaw称作“养龙虾”。

“全民养虾”热潮正推动算力需求呈数量级增长,但也存在可能自主访问敏感数据、滥用已连接的工具或自行提升权限等风险。

对此,英伟达发布了多款智能体工具及硬件设备,来帮助开发者更高效、更安全地“养龙虾”。

1、为OpenClaw设计的NemoClaw

英伟达正与OpenClaw创始人Peter Steinberger合作,汇聚世界上最优秀的安全和计算专家,将OpenClaw改造为OpenClaw企业版,使其具备企业安全性和企业隐私能力。

这被称为英伟达OpenClaw参考设计——Open NeMoClaw

只需一条命令(command),NemoClaw就能用英伟达智能体工具包软件来优化OpenClaw,将NVIDIA Nemotron模型、NVIDIA OpenShell运行时一并安装,通过OpenShell提供开放模型和一个增强智能体隐私安全性的独立沙盒环境。

这为智能体提供了按照预定隐私和安全护栏开发新Skills、完成任务的基础,使用户能在企业内部安全地保护和约束“龙虾”的执行。

NemoClaw可运行于各类专用平台,包括云端、本地部署、RTX PC和笔记本电脑、DGX Station和DGX Spark超算等,确保智能体拥有持续构建软件工具、完成任务所需的专属算力。

2、英伟达智能体工具包

英伟达智能体工具包(NVIDIA Agent Toolkit)是一套开放模型、运行时和蓝图的集合,用于构建、评估和优化更安全的长期运行自治智能体。

该工具包以覆盖推理、编码、文档智能、语音和视觉领域的高效开放模型Nemotron为起点,配备NeMo用于智能体的性能分析、定制与优化,NIM提供模型推理服务,Dynamo负责规模化扩展。

智能体需要各种Skills。其中NVIDIA OpenShell是一款面向智能体的新型开源安全与防护运行时,提供了“龙虾”缺失的基础设施层,通过基于策略的安全、网络和隐私护栏进行管控。AI-Q是一个开源蓝图,融合前沿模型与开放模型的智能,打造全球领先的面向长期工作流的研究型智能体,且运行高效。

软件的世界已经改变。英伟达认为,每一家SaaS(软件即服务)公司,都将被重塑为AaaS(智能体即服务,Agent as a Service)。企业不再销售工具,而是出租使用其工具的智能体。

英伟达正在帮助全球软件企业完成这一转型,支持他们基于英伟达智能体工具包构建智能体。LangChain是开发者构建智能体的首选框架,下载量超过10亿次,今日宣布推出与英伟达合作构建的企业级智能体AI平台。

3、两款“养龙虾”设备:DGX Spark与DGX Station

构建好智能体之后,下一个问题就很简单了:在哪儿运行?

它们可以在云端或AI工厂中运行,但很多开发者更倾向于在完全可控的本地环境中开发。

因此,英伟达推出两款适合运行NemoClaw的云端开发者平台:个人AI电脑DGX Spark和全球最快桌面级AI超算DGX Station

DGX Spark旨在让云端开发更具普惠性,可以运行安全、常驻的自治智能体。多项DGX Spark更新发布,支持将最多4个系统集群到统一配置中,并支持GTC大会上发布的最新AI模型。

基于GB10的DGX Spark及OEM合作伙伴系统今日起在全球正式开售。

DGX Station是终极云端开发平台,让开发者能直接在办公桌上本地构建、微调和运行具备前沿智能水平的模型。这意味着开发者可在自己的机器上构建并运行“龙虾”,无需连接云端,全程保持本地化,实现开发过程中的完整掌控与安全保障。

DGX Station将于今日起向OEM合作伙伴开放订购。

三、一大波开放模型上新,涉及智能体、物理AI和医疗健康

开放模型对AI生态发展至关重要。

作为全球最大的开源AI贡献者之一,英伟达构建并发布六大系列的开放前沿模型及训练数据配方和框架,帮开发者定制和采用。

Nemotron 3 Ultra是最强开放基础模型,在英伟达自有基础设施上完成预训练,吞吐量是此前最佳开放模型的2倍

Nemotron 3 Omni具备音频、视觉和语言理解能力,可支持智能体从视频和文档中高效提取信息。Nemotron 3 VoiceChat支持实时对话,把自动语音识别、大语言模型处理和文本转语音功能结合在一个系统中。

上周先一步发布的Nemotron 3 Super模型是英伟达迄今最强推理模型,在其同量级中智能水平最高、效率最优,在BFCL(伯克利函数调用排行榜,专门评估大模型作为智能体大脑的能力)中登顶开源模型第一,综合排名全球第四

面向物理AI和医疗健康AI的全新开放模型包括:

NVIDIA Cosmos 3,第一个统一合成世界生成、物理AI推理和动作模拟的世界基础模型。

NVIDIA GR00T N1.7,一个专为人形机器人构建的开放推理视觉语言动作(VLA)模型,在现实世界中部署具有商业可行性。

NVIDIA Alphamayo 1.5,一个面向自动驾驶汽车的一种推理VLA模型。

NVIDIA BioNeMo Proteina-Complexa,一个用于蛋白质结合体设计的生成模型,可加速基于结构的药物发现和治疗。

以上模型均已在Hugging Face上发布。

黄仁勋还预告了GR00T N2,这是一个基于DreamZero研究的下一代基础模型,预计将于今年年底发布。

该模型构建于新的世界动作模型架构上,帮助机器人在新环境中成功完成新任务的频率是领先VLA模型的2倍多。

此外,英伟达宣布成立Nemotron联盟,联手Black Forest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection、AI Star、Bomb、Thinking Machines Lab等顶尖AI实验室,汇聚专业知识、数据、评估体系和模型开发能力。

英伟达将使用内部DGX Cloud算力统一承担训练工作,避免每家机构在相同基础模型上重复投入,共同构建开放的共享基础。

开发者和企业随后可在此基础上,针对各自的行业、地区和应用场景进行专项定制。

联盟的第一个项目是一款全新的基础模型,正在英伟达DGX Cloud上训练,将成为即将发布的Nemotron 4系列的基础。

四、物理AI:工业软件、机器人龙头都在用,公布L4自动驾驶、太空计算新进展

整个IT行业只有2万亿美元,而世界上其他所有行业,都需要能与真实世界交互的AI,需要能够理解、建模并与真实世界交互的AI物理模型。

从桌面到机器人、自动驾驶汽车,从AI工厂到电信网络,英伟达的AI基础设施已无处不在。

1、物理AI数据工厂蓝图

在机器人领域,算力即数据。当前的数据生成工作流极为碎片化,数据处理、生成、仿真、评估和部署分散在不同管道中。

对此,英伟达推出物理AI数据工厂蓝图,一个基于英伟达Cosmos世界模型和Osmo机器人算力编排系统的开放参考架构,让“用仿真数据大规模训练机器人”这件事有了标准化管线。

英伟达正是用这套管线构建了Alphamaya、Cosmos和GR00T等前沿开放模型。

微软Azure和Nebius是首批采用该架构的云服务商,首批客户包括Field AI、Hexagon Robotics、Milestone Systems、Skilled AI和Teradyne Robotics。

2、机器人企业们都在用英伟达计算平台

英伟达为机器人制造商提供三类计算平台,以及开放模型、库和框架,可按需组合使用。

英伟达宣布,全球众多顶级机器人企业都在这三类计算平台上进行构建ABB、FANUC和库卡合计占全球工业机器人装机量近半,均已将Omniverse库集成至其机器人仿真工具中。

Figure、智元机器人、1X等人形机器人企业采用Isaac Lab、Newton和Cosmos等机器人仿真库进行构建,并采用Jetson和Thor进行边缘推理。

AI原生企业如Skilled AIField AI均在英伟达Isaac和Cosmos技术栈上构建其通用机器人大脑。

英伟达是目前唯一一个每家机器人公司都在构建于其上的计算平台。

3、L4自动驾驶出租车试点,扩展软件安全

自动驾驶汽车是物理AI大规模落地的第一个场景,也是全球首次大规模部署机器人。

英伟达构建了全球唯一的全栈自动驾驶平台NVIDIA DRIVE,覆盖自动驾驶训练与验证所需的架构、安全系统和AI基础设施。

其核心是NVIDIA DRIVE Hyperion,一款支持L4级自动驾驶的整车参考架构,集成计算、传感器和软件,可供整个自动驾驶生态系统构建。

自动驾驶的使命是安全,英伟达宣布推出L4自动驾驶汽车的统一软件安全基础NVIDIA Halos OS、开放推理VLA自动驾驶模型的全新版本NVIDIA Alphamamya 1.5,用于自动驾驶仿真的Omniverse NuRec也普遍可用了。

英伟达DRIVE生态系统正在持续扩大。比亚迪、吉利、日产等多家全球车企新近加入,采用DRIVE Hyperion,开发下一代L4自动驾驶程序。

Uber全球L4无人驾驶出租车将采用DRIVE Hyperion,基于英伟达全栈DRIVE AV软件运行无人驾驶网络,计划于2027年在洛杉矶和旧金山启动试点,2028年底前扩展至四大洲28座城市。

4、全球工业软件巨头都在用英伟达AI

英伟达宣布Cadence、Dassault Systèmes、西门子、新思科技等主要工业软件厂商将英伟达AI、开放模型、CUDA-X、Omniverse和GPU加速工业软件及工具带到现代、本田、奔驰、联发科、百事可乐、三星、SK海力士、台积电等公司,以加速设计、工程和制造。

这些软件领导者们还推出了由英伟达驱动的智能体解决方案,用于复杂的芯片和系统工具流。

例如,本田正使用新思科技的Ansys Fluent在英伟达Grace Blackwell上运行空气动力学模拟,速度比使用CPU快了34倍

5、英伟达、T-Mobile等将物理AI应用部署到AI-RAN基础设施

英伟达和T-Mobile宣布正与诺基亚合作,将物理AI应用部署到AI RAN基础设施

电信网络正在演变成AI基础设施。T-Mobile试点NVIDIA RTX PRO 6000 Blackwell服务器版AI基础设施,补充AI-RAN创新中心的分布式网络,以充分发挥物理AI的潜力。

基于英伟达加速计算的AI-RAN过渡解决了物理AI扩展的关键瓶颈:缺乏低延迟、安全和无处不在的连接。

虽然Wi-Fi受到覆盖范围和安全性的限制,但T-Mobile的5G独立网络为复杂AI智能体提供了广泛的覆盖和保证服务质量。

结语

5套机架级系统、7款量产芯片、1套完整智能体开发软硬件、覆盖自动驾驶/机器人/工业/边缘/太空的物理AI布局……黄仁勋用2小时信息量爆棚的演讲,绘制出一张通往未来的AI基建施工图。

在这张图里,英伟达的目标始终如一:垂直整合,横向开放,确保每一个AI系统,无论运行在哪里、做什么、规模有多大,都跑在英伟达的平台上。

未来已来,智能体大爆发正推动难以置信的计算需求。在这个AI新世界里,算力即金钱。从桌面、机器人、汽车、工厂到数据中心甚至到近地轨道,每一层都有英伟达的算力在运转,每一个token的生成都在为它的收入计数。

通过收购Groq LPU技术增强推理优势,用开源顶尖模型激励更广泛的算力需求,以全栈布局和提高工具易用性来垒高用户的迁移成本,英伟达走得每一步棋,都堪称教科书级。

英伟达是克制的,它坚持做基建商,不碰下游客户的分毫蛋糕。英伟达又是贪婪的,这种贪婪驱动它以极强的战斗力向前狂奔,为自己创造更庞大的未来市场,又以一种高明的长期主义,把各行各业的头部企业引入自己的生态轨道,把客户的成功变成自己的护城河。

最后,附上GTC 2026黄仁勋主题演讲片尾曲的歌词,来总结下本届GTC的重点:

The keynotes over, all was said Jensen mapped the road ahead.

主题演讲落幕,该说的都已讲完,黄仁勋为我们铺好了前路。

AI factories coming alive, agents learning how to drive.

AI工厂全面苏醒,智能体学会自主行动。

From open models to robots too now we break it all down for you.

从开源模型到机器人世界,现在我们为你拆解这一切。

Compute exploded, what we saw from CNN’s to OpenClaw.

从卷积网络到OpenClaw,我们亲眼见证算力大爆发。

Agents working cross the land but they need the power to meet demand.

智能体遍布各地但它们需要强大算力才能满足需求。

So we solved the problem, It was brilliant.

于是我们解决了难题,方案堪称绝妙。

We multiplied compute by forty million.

我们把算力提升了4000万倍。

Once upon an AI time training was the paradigm.

曾经的AI时代训练是核心范式。

Sure it taught the models how, but inference runs the whole world now.

它教会模型如何学习,但如今推理才是驱动世界的引擎。

Vere shows us who’s the boss at thirty-five times less the cost.

Vere告诉世界才是真正王者,成本降到1/35。

Blackwell makes the tokens sing NVIDIA, the inference King.

Blackwell让Token放声歌唱:英伟达,推理之王。

AI Factories once took year vendors pulling racks and gears.

AI工厂曾经耗时经年,厂商们堆砌机架与配件。

Built up slowly, piece by piece no clear way to scale the beast.

一点点缓慢搭建,却找不到规模化的路径。

DSX and Dynamo know what to do turning power into revenue.

DSX与Dynamo指明方向把算力直接变成营收。

Agents used to wait and see now act autonomously.

智能体过去只会观望等待。

But if they ever try to stray safe Claws block and say ‘No Way!’

如今可以完全自主行动,可一旦它们试图越界,安全Claw会阻拦:“绝对不行!”

NemoClaw’s there to guard the course and yes, my friends…

NemoClaw守护全程航向,而且,朋友们……

It’s open source.

它还是开源的!

Cars that think and droids that run this ain’t the movies, it’s all begun.

会思考的汽车,能奔跑的机器人,这不是电影,一切已经开始。

Alpamayo calls the shots it’s a GPT moment for the bots.

Alpamayo掌控全局,这是机器人的GPT时刻。

From sim to streets, now watch them drive throw your hands up for Physical AI.

从仿真到街头,看它们驰骋,为物理AI振臂高呼。

The Industrial Age built what came before now we build for AI even more.

工业时代铸就了过往,如今我们为AI再造新章。

Vera Rubin plus groq make the inference splash put them together,now it’s raining cash.

Vera 加上Groq掀起推理狂潮,两者强强联手财富如雨降临。

We build new architecture every year because Claws keep yelling, ‘More tokens here!’

我们每年都打造全新架构,因为“龙虾”不停呐喊:“这里需要更多token!”

The AI stack’s for all to make so let us all eat five layer cake.

AI技术栈由所有人共同创造,让我们共享这五层蛋糕。

The moment’s bright, the path is clear because open models led us here.

此刻光芒万丈,前路清晰坦荡,是开源模型带领我们抵达远方。

When data’s missing, there’s no dispute we just generate more with compute.

当数据缺失时毋庸置疑,我们用算力生成更多数据。

Robots learning without a flaw fueling the four scaling laws.

机器人完美学习无差错,驱动四大增长定律。

The future’s here, won’t you come and see?

未来已来,你难道不想亲眼见证?

Welcome all to GTC.

欢迎所有人来到GTC大会。