SK集团董事长崔泰源:存储芯片短缺或持续至2030年

【CNMO科技消息】当地时间周二(3月17日),韩国SK集团董事长崔泰源在出席英伟达GTC大会时发出预警:由于芯片生产存在系统性瓶颈,全球内存芯片短缺的情况很可能持续到2030年。

在大会现场,崔泰源向记者表示,随着市场对人工智能需求的指数级增长,半导体供应链的紧张态势正在加剧。他明确指出:“我认为芯片短缺的情况可能会持续到2030年。”这意味着,从现在算起,整个行业还要面临长达四年的供应压力。

这并非崔泰源首次就此发声。上个月在华盛顿特区参加活动时,他就曾透露,当前AI存储芯片的供需缺口已超过30%。作为全球领先的内存半导体制造商以及英伟达高带宽存储芯片(HBM)的核心供应商,SK海力士的掌舵人此番表态无疑为整个行业定下了“供应紧俏”的长期基调。

崔泰源分析指出,AI行业对HBM的庞大需求是造成当前“晶圆荒”的根源。而要缓解这一瓶颈,需要大量的资本支出和时间沉淀。“公司至少需要四到五年时间来增加晶圆产能,”他坦言。

在价格走势方面,崔泰源的预期更为直接。他预计,包括DRAM、NAND闪存以及HBM在内的各类存储芯片价格将持续上涨,且“涨势可能会持续较长时间”。这不仅意味着下游企业的成本压力将持续存在,也预示着半导体行业将进入一个利润丰厚的“超级周期”。

在访谈中,崔泰源还透露了一项重大资本运作计划:SK海力士正在积极考虑在美国发行存托凭证(ADR)上市,以扩大其全球投资者基础。行业分析师普遍认为,一旦成功在美股上市,将有助于市场重新评估这家内存巨头的价值,摆脱当前在韩国本土市场的估值束缚。

并且,在大会上黄仁勋预测,随着AI模型的迭代,市场对英伟达下一代Blackwell芯片及Vera Rubin芯片的需求将达到天文数字,直接打消了市场对AI需求可能放缓的疑虑。此外,黄仁勋还发布了采用三星技术的“Grok3 LPU”芯片,并宣布该芯片由三星电子代工,预计下半年出货。

Kimi回应马斯克点赞:你的火箭也不错

凤凰网科技讯 3月17日,Kimi官方账号回应马斯克对其最新成果的点赞,称“你的火箭造得也不错”。

据报道,近日,Kimi团队发布技术报告,提出全新Attention Residuals(注意力残差)机制,对深度学习领域沿用近十年的传统残差连接实现颠覆性重构,迅速获得全球关注。

传统残差连接以“固定等权累加”传递信息,层数增加易导致浅层信息稀释、训练效率低、稳定性差。

而Kimi的创新相当于给AI装了“智能筛选器”,将Transformer注意力机制迁移到模型深度维度,让每一层动态筛选此前有用信息、压低冗余,提升传递效率。

实测显示,48B参数模型训练效率提升1.25倍,科学推理、数学题作答成绩分别提升7.5%、3.6%,有效解决传统模型训练失衡问题。

以挑剔著称的马斯克转发研究并评论“Kimi的作品令人印象深刻”,其旗下xAI正处重组期,此次认可足见技术分量。

小米罗福莉AI团队最新突破,使算力成本直降71.2%

IT之家 3 月 17 日消息,据智能纪元 AGI 昨日(3 月 16 日)报道,前 DeepSeek 研究员、小米 MiMo 大模型负责人罗福莉发表论文,与北京大学联合研发出统一的资源管理系统 ARL-Tangram

ARL-Tangram 采用统一的动作级公式和弹性调度算法,不仅满足异构资源约束,而且最大限度地缩短动作完成时间(ACT),以及实现定制化异构资源管理器。

在真实世界的智能体强化学习任务上的评估表明,ARL-Tangram 可以将平均 ACT 提高高达 4.3 分。可将强化学习训练的步骤持续时间缩短至多 1.5 倍,并节省高达 71.2% 的外部资源

这是罗福莉在小米发表的第二份突破性技术成果论文。去年 10 月,小米 AI 团队携手北京大学联合发布一篇聚焦 MoE 与强化学习的论文,其中已经出现罗福莉的名字,成为罗福莉在小米发表的首篇论文成果。

在 2025 小米人车家全生态合作伙伴大会上,罗福莉迎来入职后首秀。她在朋友圈官宣加入小米 Xiaomi MiMo 大模型团队:

智能终将从语言迈向物理世界。我正在 Xiaomi MiMo,和一群富有创造力、才华横溢且真诚热爱的研究员,致力于构建这样的未来,全力奔赴我们心目中的 AGI!

马斯克亲自点赞,Kimi动了十一年没人敢碰的东西

马斯克亲自点赞,Kimi动了十一年没人敢碰的东西

作者:苗正

导语: AI界最“理所当然”的设计之一,终于被质疑了

科技博主Avi Chawla在X上发了一条长帖,详细拆解了月之暗面Kimi团队刚刚发布的一篇技术报告。

帖子发出后不久,马斯克本人在下面回复了一句:“月之暗面做出了令人印象深刻的结果”(Impressive work from Kimi.)

马斯克在AI领域的表态向来以挑剔著称,没少骂过Anthropic和OpenAI,甚至曾直言说Anthropic的图标像是某种人体器官。

他自己的xAI最近还在经历大规模重组,多位华人联合创始人离职,Grok的表现也不尽如人意。

可就在这个节骨眼上,他主动对一家中国AI公司的技术论文表示认可,多少有些出人意料。

说回被马斯克点赞的这个东西,其实是有点抽象的,因为它压根不是一个模型。

Kimi团队提出了一种新的方式,试图替换掉Transformer架构里一个自2015年以来就几乎没人动过的基础组件。

这是一篇纯粹的架构层面的技术论文。

虽然说这篇论文的影响,未必会被普通用户感知到,可实际上,它触碰的是整个深度学习的基石。

01

月之暗面到底改了什么

要理解这篇论文在做什么,得先搞清楚一个背景。现代大语言模型,无论是GPT、Claude,还是国内的豆包、DeepSeek,哪怕是Kimi自己的K2.5,其底层架构都是Transformer。

Transformer之所以能训练到几十层甚至上百层而不崩溃,都是因为一个叫“残差连接(Residual Connection)”的机制在起作用。

残差连接的原理其实很简单。

每一层网络在做完自己的计算之后,把自己的输出和输入加在一起,然后传到下一层去再做计算。这样做的好处是,梯度在反向传播时可以沿着一条“高速公路”直达底层,不会因为层数太深而消失。

这个设计来自何恺明在2015年参与的ResNet论文,后来被Transformer原封不动地继承了下来。

但这时候就有一个不大不小的问题,这种“加法”是完全平等的。

第一层的输出和第四十层的输出,在最终的隐藏状态里享有同等的权重,都是1。没有任何机制去判断哪一层的信息更重要、哪一层的贡献可以被忽略。随着层数增加,隐藏状态的数值会线性增长,早期层的信息逐渐被稀释,后面的层想要产生影响就必须输出更大的数值,这反过来又加剧了不稳定性。

就像咱们所有人拉个微信群,一起讨论晚上吃什么,每个人的发言权重完全一样,不管谁说的有道理谁在瞎扯,最后群主只能把所有消息从头到尾读一遍,这就导致他越往后翻越记不住前面说了啥。

这个现象在学术上被称为“PreNorm稀释”。

Kimi团队注意到,这个问题和早年RNN面临的困境有一种结构上的对称性。

RNN是在时间维度上做固定权重的累加,每个时间步的信息被等权地压缩进同一个隐藏状态,导致长距离依赖难以捕捉。后来Transformer用注意力机制替代了RNN的这种线性累加,让模型可以根据内容动态地决定该关注序列中的哪些位置,这才有了后来的一切。

两者的区别在于,RNN就像上课,老师讲到哪你就听到哪,只能从头听到尾,没记住的要么看笔记,要么再次从头来。Transformer则是录播网课,可以随时翻回去看之前最重要的部分。

但在深度维度上,同样的问题一直存在,却没有人用同样的思路去解决。每一层的输出仍然是被等权相加的,模型没有能力根据当前输入去选择性地从某些层提取信息、忽略另一些层。

Kimi团队表示,标准残差连接本质上是“深度维度上的线性注意力”,他们要做的,是把它升级为“深度维度上的softmax注意力”。

于是他们提出了一个“理想版”的方案,叫做全注意力残差(Full Attention Residuals)。

具体做法是给每一层赋予一个可学习的查询向量,这个向量会对之前所有层的输出做一次注意力计算,产生一组归一化的权重。

然后当前层的输入不再是之前所有层输出的简单求和,而是按照这组权重的加权组合。权重是输入相关的,也就是说,不同的token在经过同一层时,可能会从不同的历史层中提取不同的信息。

那我们还是用前面微信群的例子。现在群主不用从头到尾翻聊天记录了,有个助手帮他标出“这几条最值得看”,不同的话题还会标出不同的重点消息。

理想丰满现实骨感,全注意力残差这个方案其实“不靠谱”。

大规模训练时,模型通常会使用流水线并行和激活重计算来节省显存,这意味着之前层的输出不会被保留在内存里。

如果要做全注意力,就需要把所有层的输出都存下来并在流水线的不同阶段之间传递,内存和通信开销都会变得不可接受。

为了解决这个问题,Kimi团队又提出了块注意力残差(Block Attention Residuals)。

思路是把所有层分成若干个块,每个块内部仍然使用传统的残差连接做求和,但块与块之间使用注意力机制来做选择性聚合。这样需要存储和传输的不再是每一层的输出,而是每个块的汇总表示,内存占用从 O(Ld)降到了 O(Nd),其中 N 是块的数量,通常只有8个左右。

这就相当于是把刚才那个微信群分成了八个小组,每组先内部讨论出一个结论,群主只需要看八条小组总结就行。

在此基础上,他们还做了一系列工程优化。

比如跨阶段缓存消除了流水线并行中的冗余传输,两阶段推理策略通过在线softmax把跨块注意力的计算分摊到各个块的处理过程中。最终的结果是,注意力残差作为标准残差连接的替代品,训练时的额外开销很小,推理时的延迟增加不到2%。

Kimi团队又做了两个实验。

一是scaling law实验,验证这个改进在不同模型规模下是否一致有效。结果显示,注意力在所有计算预算下都优于基线,其效果相当于用1.25倍的计算量训练出的基线模型。

二是Kimi拿自己的大模型上做了实战验证。模型参数量为480亿,用超过一万亿个词的数据做了完整的预训练。然后在科学问答、数学推理、代码生成、综合知识等一系列主流测试中,加了块注意力残差的版本全面超过了没加的版本。

从训练动态的分析来看,块注意力残差确实缓解了PreNorm稀释问题。各层输出的幅度不再随深度线性增长,而是保持在一个相对稳定的范围内;梯度的分布也更加均匀,也不再会出现浅层梯度过大、深层梯度过小的失衡现象。

除此以外,论文中还做了一个统一的结构化矩阵分析,证明了标准残差连接和之前的各种变体(比如 Highway Networks、DeepNet 的 scaled residuals 等)本质上都是深度维度上的线性注意力的特例。

简单来说就是,自2015年ResNet以来,在残差连接这个板块,没有任何实质性的变化。而Kimi的这篇论文,是第一个既有理论依据,又能大规模实际部署且低成本的方案。

马斯克也正是因为这个结论,才亲自下场点赞Kimi。

02

融资、争议和马斯克的那个赞

月之暗面正处在一个微妙的时间节点上,那就是上市。

2025年12月底,月之暗面完成了5亿美元的C轮融资。投后估值43亿美元。两个月后,月之暗面完成超7亿美元的C+轮融资,由阿里、腾讯、五源资本等老股东联合领投,投后估值突破100亿美元。

到了3月中,月之暗面最新投前估值已上升至180亿美元,新一轮10亿美元融资正在推进中,3个月内估值实现超4倍增长。

实际上月之暗面最近的收入增长得很快,Kimi K2.5模型发布不到一个月,累计收入就超过了2025年全年总收入。

根据全球支付平台Stripe的数据,Kimi个人订阅用户的支付订单数在1月环比增长了 8280%,2月又环比增长了123.8%,已经进入Stripe全球榜单前十。

但融资顺利并不意味着没有争议。

就在几天前,OpenClaw创始人彼得·斯坦伯格公开对月之暗面的Kimi Claw产品提出了质疑。事

情的起因是,月之暗面此前推出了OpenClaw的云端一键部署服务Kimi Claw,它的逻辑有悖于OpenClaw的设计理念。

有用户在X上询问这个产品是否值得尝试并 @了斯坦伯格,斯坦伯格的回应很直接:他们有没有把安全文档作为必读项展示给用户?

斯坦伯格的核心关切在于,OpenClaw的逻辑是“本地优先”。agent运行在用户自己的设备上,数据不经过任何第三方。驱动它的大模型只提供操作指令,不触碰用户数据。

但KimiClaw的做法恰恰相反,它把数据搬到了云端,也就是月之暗面自己的服务器里。在安全和隐私层面,这两种模式的风险等级完全不同。

斯坦伯格对KimiClaw的质疑在社区中产生了实际影响。

最初询问斯坦伯格的这位X用户随后发文表示,鉴于斯坦伯格提到的安全性问题,他暂时不会使用这个产品。

对于正在高速融资的月之暗面来说,来自OpenClaw创始人的公开批评,多少会在海外技术社区中制造一些负面情绪。

然后马斯克的那条回复出现了。

虽然这两件事是风马牛不相及的,但在舆论场上,它们会不可避免地被放在一起解读。

一边是OpenClaw创始人对月之暗面产品的安全质疑,另一边是马斯克对月之暗面研究论文的公开认可。

对于正在进行新一轮融资的月之暗面来说,后者的时机几乎不能更好。在资本市场的叙事逻辑里,这种来自顶级人物的认可,往往比任何分析报告都更有说服力。

当然了,不应该过度去解读马斯克的一条推文。他在X上的互动频率极高,对各种技术话题都会随手点评,一句“impressive”并不意味着他会投资月之暗面或者在xAI中采用月之暗面的方法。

但不管怎么说,马斯克那条回复发出去之后,很多原本不关注架构研究的人,也开始去翻这篇论文了。一个十一年没人碰过的组件被重新打开,接下来会发生什么,谁也不知道。

儿歌App推送低俗广告,宝宝巴士子公司被罚30万元

IT之家 3 月 17 日消息,宝宝巴士(福建)网络科技有限公司因发布低俗广告,于 2 月底被福州市仓山区市场监督管理局罚款 30 万,没收违法所得 3.68 元。

宝宝巴士(福建)网络科技有限公司成立于 2013 年 2 月,法定代表人为唐光宇,注册资本 4490 万人民币,经营范围包括动漫游戏开发、数字文化创意软件开发等。股东信息显示,该公司由宝宝巴士股份有限公司全资持股。

据澎湃新闻报道,2025 年 10 月,有网友反映称,打开宝宝巴士旗下一款“宝宝巴士儿歌”App 后,开屏时跳转到低俗擦边直播等不适合儿童观看的第三方广告。此事引发大量关注。

2025 年 10 月 29 日,宝宝巴士相关负责人回应称,出现在 App 上的问题广告是第三方平台接入广告,此次事件严重影响了用户的使用体验,对此他们表示诚挚的歉意。

宝宝巴士表示,出现不良广告一事,公司高度重视,迅速开展自查自纠工作。针对此次广告事件暴露出的漏洞与不足,公司立即进行整改与优化:第一时间下线了相应平台上的所有广告,并及时与平台沟通,完善广告主的审核和屏蔽机制;针对广告平台无法监控的广告主,宝宝巴士自行研发了广告强制拦截功能,对其实施强制拦截。

微软电脑管家宣布上线一键卸载龙虾新功能!自动清理 全程无需手动操作

快科技3月17日消息,日前,开源AI智能体OpenClaw(俗称“龙虾”)爆火,AI“养龙虾”成为全网热点。

然而,“养龙虾”背后,隐患和风险也很大,国家互联网应急中心、工信部接连发布提示,直接点名“龙虾”存在严重安全隐患。

有些已经安装OpenClaw的人,已经打算将其卸载,网上也出现不少卸载教程,甚至付费卸载服务。

今日,微软电脑管家宣布新功能上线,支持龙虾一键卸载或一键停止,目前已支持OpenClaw和EasyClaw,之后将陆续覆盖更多“龙虾”平台。

据介绍,一键卸载功能完整覆盖了进程清退、安装清理、本地数据清除等多个环节。

点击卸载后,系统会自动停止本地龙虾相关进程,调用龙虾平台自身的标准卸载流程,并自动清理安装包、安装目录及本地数据文件,覆盖配置、插件、日志等本地残留,减少遗漏风险。

微软电脑管家宣布上线一键卸载龙虾新功能!自动清理 全程无需手动操作

全程无需手动操作,也无需查阅教程,点击即可完成,适合彻底卸载、安全清退、合规要求等场景。

如果不想彻底卸载,只是想让龙虾暂时停下来,微软电脑管家的一键停止功能,可自动识别并停止本地龙虾相关进程与服务,同时确认相关端口已释放,不再对外暴露。

停止过程中,所有配置与数据均会保留,随时可以一键恢复,适合暂停使用、排查问题或临时关停等场景。

官方表示,使用前需将微软电脑管家更新至3.20.7.0及以上版本,目前新功能正在灰度上线中。

微软电脑管家宣布上线一键卸载龙虾新功能!自动清理 全程无需手动操作

到明年赚它1万亿美元!黄仁勋撂狠话,英伟达龙虾轰动全场,Groq新芯片首发

智东西

作者 | ZeR0 程茜

编辑 | 漠影

就在刚刚,全球最大规模的AI盛会——英伟达GTC 2026盛大开幕!

智东西3月16日圣何塞现场报道,美西时间11点18分,英伟达创始人兼CEO黄仁勋身穿标志性皮衣登场,发表了一场激情澎湃的主题演讲。

200亿美元买下的Groq技术、掀起“全民养虾”盛世的OpenClaw、一大波全新开放模型、L4自动驾驶最新进展,全部浓缩在这场信息密度极高的演讲之中。

先上重点,英伟达发布其旗舰AI计算平台Vera Rubin的5大机架级系统,推出全新AI推理芯片Groq LPU 3,宣布7款芯片全面生产,并带来太空计算设备Space-1 Vera Rubin Module,将AI计算版图扩展到地球之外。

7款芯片分别是Rubin GPU、Vera CPU、ConnectX-9 SuperNIC、BlueField-4 DPU、NVLink 6 Switch、Spectrum-X 102.4T CPO,以及新集成的Groq 3 LPU

英伟达还公布了最新产品路线图:

对于Rubin架构,Oberon系统采用铜缆纵向扩展,还可以使用光学扩展,将NVLink扩展到576。黄仁勋说,铜缆纵向扩展和光学纵向扩展,英伟达都会采用。

Rubin Ultra芯片正在流片,即将到来;还有全新的LP35芯片——将首次融入英伟达的NVFP4计算结构,带来又一个几倍的速度提升。

Oberon之后,Kyber系统采用铜缆纵向扩展,还将有Kyber CPO纵向扩展——首次同时支持铜缆和共封装光学的纵向扩展。

计划在2028年发布的英伟达AI数据中心扛鼎之作们,也被一次性曝光:Feynman GPU(定制HBM)、LP40 NVLink、Rosa CPU、Bluefield-5 DPU、NVLink 8 CPO、Spectrum7 204T CPO、ConnectX-10 SuperNIC

在2小时10分钟的演讲中,英伟达密集甩出超过20项重磅发布,涉及AI基础设施、智能体、推理、开放模型、机器人、自动驾驶、企业级AI等,这些也是今年GTC大会的核心话题。

今年恰逢CUDA诞生20周年,黄仁勋想说的话很多,最言简意赅的当属下面这张图,基本概括了英伟达100%的战略布局

CUDA庞大的装机基数吸引开发者,开发者创造新算法,算法突破催生新技术,新技术开辟全新市场,全新市场构建新生态,更多企业加入生态,进而扩大装机基数——这个飞轮,正在加速转动。

20年前,英伟达发明了CUDA,这是其有史以来最重大的投资之一,消耗了公司绝大部分利润,导致当时的英伟达几乎负担不起。但历经初期的重重困难,历经13代产品、整整20年的坚持,如今,CUDA已无处不在。

黄仁勋宣布,英伟达与IBM达成深度合作,并晒出与谷歌云、AWS、微软Azure等云巨头的合作案例。“今年我特别兴奋的一件事是,我们将把OpenAI带到AWS。”

他提到过去两年,ChatGPT、生成式AI、Claude Code三件事持续推动AI浪潮,英伟达的计算需求已经爆表,现货价格飞涨,推理的拐点已经到来。

回顾整场演讲,几个掌声雷动时刻,堪称“人气王”:

1、黄仁勋预言:到2027年将坐拥1万亿美元订单

黄仁勋估计英伟达2025年订单额约为5000亿美元,并大胆预测,到2027年,这一数字将翻番,至少会达到1万亿美元

2、龙虾一出,全场欢呼

在萌版红色龙虾出现在大屏幕的刹那,观众席瞬间沸腾!果然论起炸场,还得看今年AI领域的“头号顶流”——开源AI智能体框架OpenClaw。

为开发者掏心掏肺的英伟达,这次直接端出“养龙虾全家桶”:软件包括英伟达版龙虾NemoClaw、智能体基础模型Nemotron 3 Ultra、智能体工具包,硬件有个人AI电脑DGX Spark和桌面级AI超算DGX Station

大会期间,英伟达每天都在GTC Park举办build-a-claw部署活动,帮参会者免费装“龙虾”。参会者带上自己的NVIDIA DGX Spark或GeForce RTX笔记本电脑,就能在英伟达专家的帮助下本地部署智能体,打造自己的专属AI助手。英伟达还诚意拉满,给OpenClaw爆红之路做了个精致的回顾视频。

OpenClaw创始人Peter Steinberger特意发推文安利:“用OpenShell和 NemoClaw烹饪真的太有趣了!🦞”

3、英伟达机器人全家福亮相

黄仁勋放出一张最新机器人大合照,有30多台机器人,包括比亚迪、库卡、智元、小鹏、吉利的机器人。

黄仁勋谈道,机器人是一个50万亿美元的制造业市场,英伟达已在此深耕十年,本届大会现场将展示110台机器人,全球几乎每一家机器人公司都在与英伟达合作。

4、“雪宝”机器人压轴登场,跟黄仁勋热聊

“这里有很多人形机器人,但我最喜欢的之一……是一款迪士尼机器人。”黄仁勋夸奖一响,《冰雪奇缘》电影同款的“雪宝”机器人闪亮登场!

“雪宝”机器人先是出现在一段展示“全球首次大规模物理AI部署已经到来”的影片里,当迪士尼Newton Snow Solver物理引擎将“雪宝”所在的冰雪场景和彩色糖果场景丝滑切换,现场响起热烈的掌声。

影片一结束,真正的“雪宝”机器人就走了出来,与黄仁勋热聊互动,逗乐观众。

5、魔性收尾:Q版黄仁勋、龙虾和机器人组乐队

大会收尾别出心裁,黄仁勋数字人与一群机器人、一只萌版龙虾,一起拍了一支魔性音乐MV,歌词把本届GTC的核心干货唱了个遍,曲调也很上头。(文末附上了歌词全文)

今年GTC大会人气相当火爆,超过30000名参会者齐聚圣何塞,有1000多场技术分论坛、2000多位演讲嘉宾。英伟达将在本届GTC大会上发布大约100个库、70个模型及40个模型。

一、5大机架组出Vera Rubin巨型AI超算,Groq 3 LPU芯片丝滑融入英伟达全家桶

“我们每Token的成本是全球最低的,无法被超越。”黄仁勋说,“我之前说过,如果你选择了错误的架构,即便它是免费的,也还是不够便宜。”

在他看来,只有在AI工厂安置了最好的计算系统,才能获得最低的token成本,而英伟达的token成本基本无可匹敌,原因在于极致的协同设计

全新Vera Rubin平台是当前英伟达瞄准AI推理计算市场的王牌产品:7款芯片、5种机架级计算机、1台革命性AI超算,专为智能体打造——仅用10年,就将算力提升了4000万倍

在GTC主题演讲中,黄仁勋一口气介绍了Vera Rubin平台的5款全新机架级系统:

NVIDIA Vera Rubin NVL72 GPU机架

NVIDIA Groq 3 LPX推理加速器机架

NVIDIA Vera CPU机架

NVIDIA BlueField-4 STX存储机架

NVIDIA Spectrum-6 SPX以太网机架

它们以统一的MGX模块化架构进行深度协同设计,可自由组合,按负载密度和价格梯度灵活部署,加快产品上市速度,服务于整个AI工厂。

当这些汇聚在一起,意味着Vera Rubin平台将扩展整个AI工厂的收入机会。

目前,7款全新芯片已全面量产,可在超大型AI工厂中规模化部署。

基于Vera Rubin的产品将从下半年开始由英伟达的合作伙伴提供。

1、Vera Rubin NVL72 GPU机架

Vera Rubin NVL72系统集成了由NVLink 6链接的72颗GPU与36颗Vera CPU,以及ConnectX-9 SuperNIC和BlueField-4 DPU。

相较前代Blackwell平台,在Vera Rubin平台上训练大型混合专家模型时,所需GPU数量仅为1/4,并在AI推理方面,实现推理吞吐量提升10倍,token单位成本降至原来的1/10

黄仁勋认为,token是新的大宗商品,一旦达到拐点、走向成熟,它将会分层细分,不同模型尺寸、智能、速度、上下文长度对应不同的价格。英伟达在每一层都提升吞吐量。

注:图中免费层(千问3 235B 32K),中级层(Kimi K2.5 1T 128K),高级层(GPT MoE 2T 128K),旗舰层(GPT MoE 2T 400K)

吞吐量需要大量算力,延迟和交互性需要巨大的带宽。由于芯片面积有限,因此追求高吞吐量和追求低延迟,实际上是互相冲突的目标。

英伟达通过引入Groq技术来解决这一冲突,在最贵的旗舰层将性能提升35倍。

如果将图表里的曲线向右延伸,想要每秒1000个token的服务,NVLink 72就会力不从心,因为没有足够的带宽。

而这,恰恰是Groq发挥作用的地方。

2、Groq 3 LPX推理加速器机架

去年12月,英伟达买下AI芯片创企Groq非独家协议和核心成员的交易轰动科技圈。业界密切关注Groq的LPU芯片是否会与英伟达GPU形成竞争。

现在,答案揭晓,LPU并不是来取代GPU的,而是来加入GPU这个家的

在英伟达的布局里,Rubin性能强,LPU带宽高、延迟低,两者优势恰好互补。

因此,英伟达推出全新NVIDIA Groq 3 LPU,实现GPU超强算力与LPU超高带宽的融合。

来看一组对比:

一张Rubin GPU拥有3360亿颗晶体管、288GB HBM4内存、22TB/s带宽、50PFLOPs算力(NVFP4)、 2.5T(HBM4)。

而一张Groq 3 LPU只有980亿颗晶体管、500MB SRAM,内存容量仅为Rubin HBM4的1/500,算力达1.2PFLOPS。但其SRAM带宽高达150TB/s,是Rubin带宽的约7倍

在此基础上,英伟达发布Groq 3 LPX机架

这款新机架可支持256张Groq 3 LPU,共有128GB片上SRAM、315PFLOPS算力、640TB/s扩展带宽,可扩展至超过1000张LPU。

黄仁勋说,Groq如此吸引人的原因在于:其计算系统是一种确定性数据流处理器,静态编译,由编译器调度——编译器预先确定何时执行计算,数据同步到达,所有这些都在软件中静态预排,没有动态调度。

该架构设计配备了大量SRAM,专为推理这一个单一工作负载而设计。

需要大量的Groq芯片,才能存储Vera Rubin的参数规模以及必须与之配套的KV Cache,这使得Groq受到一定限制。

对此,英伟达用Dynamo软件重新构建推理的管线,使适合的工作放在Vera Rubin上运行,然后将解码生成部分,也就是低延迟、带宽受限的挑战性工作负载部分,卸载到Groq上。这就将两款各具极端优势的处理器统一起来。

协同设计的LPX架构与Rubin GPU紧密耦合,LPX作为token加速器,叠加在拥有高吞吐量的Vera Rubin之上,两者合计可将运行万亿参数模型时提供每兆瓦推理吞吐量提升35倍。Groq 3 LPU由三星代工,已进入量产,预计下半年出货,大约在第三季度。

3、NVIDIA Vera CPU机架

智能体模型的训练和部署推理都离不开CPU。GPU需要调用CPU来执行工具调用、SQL查询和代码编译等任务,CPU的速度至关重要。

英伟达将Vera CPU称作“专为智能体AI工作负载打造的最佳CPU”。

Vera搭载全新Olympus核心,是全球唯一使用LPDDR5的数据中心CPU,结合高性能与高能效的核心设计、高带宽内存子系统以及第二代英伟达可扩展计算Fabric,能在各类智能体应用场景和强化学习极端条件下提供更快的响应速度。

相比传统x86 CPU,Vera单线程性能提升50%,每核心内存带宽提升至3倍,能效翻倍

今日,英伟达发布全新NVIDIA Vera CPU机架

该机架搭载256台液冷Vera CPU,提供400TB内存、300TB/s内存带宽,集成64颗BlueField-4 DPU,全面兼容Vera Rubin与MGX生态系统。

英伟达已完成初步芯片测试,Vera在各类工作负载上的性能提升从2倍到超过5倍不等。

4、BlueField-4 STX存储机架

随着智能体应用规模扩大,数据需求也在膨胀。

传统数据中心提供大容量的通用存储,但缺乏AI智能体所需的即时响应能力。随着上下文窗口增长、AI能力提升,传统存储路径和数据通路会拖慢AI推理速度、降低GPU利用率。

为此,英伟达推出全新的BlueField-4 STX存储机架

这是一个原生存储基础设施,基于BlueField-4 DPU,结合Vera CPU和ConnectX-9 SuperNIC,可将GPU内存无缝扩展至POD计算集群中。

STX提供了一种高带宽共享层,用于存储和检索大语言模型及智能体AI工作流所产生的海量KV Cache数据。

该机架可实现能效比提升至4倍,企业数据翻页速率提升至2倍,同时让AI工厂的上下文记忆每秒token处理速率快5倍

5、Spectrum-6 SPX以太网机架

Spectrum-6 SPX以太网用于全数据中心横向扩展的互连网络,让以上所有系统连成整体。

与传统可插拔收发器相比,带有共封装光学器件(CPO)的Spectrum-X以太网光子技术实现了多达5倍的光学功率效率和10倍的弹性。

6、发布Vera Rubin DSX AI工厂参考设计和Omniverse DSX数字孪生蓝图

要在数据中心部署上述全新计算集群和架构,必须考虑如何运营,并帮助整个数据中心生态系统实现效能提升。

因此,英伟达发布Vera Rubin DSX AI工厂参考设计,这是一个AI基础设施蓝图,概述了如何设计、构建、操作整个AI工厂基础设施堆栈,可最大限度提高每瓦token和整体实际吞吐量,提高系统弹性并加快首次生产的时间。

基于Rubin平台部署DSX架构后,AI工厂能在固定功耗下,实现能效比提升30%,同时增加30%的AI算力部署规模。

NVIDIA Omniverse DSX蓝图现在提供NVIDIA Vera Rubin DSX AI工厂参考设计,为大型AI工厂设计和模拟提供数字孪生。

开发者通过以下几个API接入:

DSX Sim,用于物理、电气、热力和网络仿真;

DSX Exchange,用于AI工厂运营数据交换;

DSX Flex,用于电网与数据中心之间安全的动态功率管理;

DSX Max-Q,用于动态最大化Token吞吐量。

7、NVIDIA RTX PRO 4500 Blackwell服务器版

在GTC期间,英伟达还发布了NVIDIA RTX PRO 4500 Blackwell服务器版,为全球应用广泛的企业数据中心和边缘计算平台(包括本地部署和云端)带来多工作负载GPU加速功能。

8、Vera Rubin AI太空计算模块

“我们已经进入太空了,”黄仁勋说,“我们有抗辐射的GPU,我们在卫星上进行成像。未来,我们还将在太空中建造数据中心。”

这很复杂,所以,英伟达正与合作伙伴研发一款新型计算机,称作NVIDIA Space-1 Vera Rubin Module,将发射入轨并在太空中建立数据中心。

这是一款面向太空优化的AI计算模块,支持实时感知、决策和自主运作,将数据中心级AI计算性能带到轨道数据中心、地理空间智能和自主空间与运营。

在太空中没有传导、没有对流,只有辐射散热,所以必须想办法冷却这些系统,英伟达有很多优秀的工程师正在研究。

二、发智能体工具包、桌面级AI超算,全方位助攻安全“养龙虾”

随着OpenClaw爆火,智能体的“ChatGPT时刻”已经来临。

黄仁勋评价说,OpenClaw是人类历史上最受欢迎的开源项目,仅仅几周内就做到,超越了Linux用30年取得的成就。

在他看来,OpenClaw开源了,本质上就是一个“智能体计算机的操作系统”,与Windows使得PC得以实现没区别,如今,OpenClaw使个人智能体的创建得以实现。

因为OpenClaw的吉祥物是一只红色龙虾,中国开发者更喜欢用“龙虾”来称呼这个智能体,并将部署OpenClaw称作“养龙虾”。

“全民养虾”热潮正推动算力需求呈数量级增长,但也存在可能自主访问敏感数据、滥用已连接的工具或自行提升权限等风险。

对此,英伟达发布了多款智能体工具及硬件设备,来帮助开发者更高效、更安全地“养龙虾”。

1、为OpenClaw设计的NemoClaw

英伟达正与OpenClaw创始人Peter Steinberger合作,汇聚世界上最优秀的安全和计算专家,将OpenClaw改造为OpenClaw企业版,使其具备企业安全性和企业隐私能力。

这被称为英伟达OpenClaw参考设计——Open NeMoClaw

只需一条命令(command),NemoClaw就能用英伟达智能体工具包软件来优化OpenClaw,将NVIDIA Nemotron模型、NVIDIA OpenShell运行时一并安装,通过OpenShell提供开放模型和一个增强智能体隐私安全性的独立沙盒环境。

这为智能体提供了按照预定隐私和安全护栏开发新Skills、完成任务的基础,使用户能在企业内部安全地保护和约束“龙虾”的执行。

NemoClaw可运行于各类专用平台,包括云端、本地部署、RTX PC和笔记本电脑、DGX Station和DGX Spark超算等,确保智能体拥有持续构建软件工具、完成任务所需的专属算力。

2、英伟达智能体工具包

英伟达智能体工具包(NVIDIA Agent Toolkit)是一套开放模型、运行时和蓝图的集合,用于构建、评估和优化更安全的长期运行自治智能体。

该工具包以覆盖推理、编码、文档智能、语音和视觉领域的高效开放模型Nemotron为起点,配备NeMo用于智能体的性能分析、定制与优化,NIM提供模型推理服务,Dynamo负责规模化扩展。

智能体需要各种Skills。其中NVIDIA OpenShell是一款面向智能体的新型开源安全与防护运行时,提供了“龙虾”缺失的基础设施层,通过基于策略的安全、网络和隐私护栏进行管控。AI-Q是一个开源蓝图,融合前沿模型与开放模型的智能,打造全球领先的面向长期工作流的研究型智能体,且运行高效。

软件的世界已经改变。英伟达认为,每一家SaaS(软件即服务)公司,都将被重塑为AaaS(智能体即服务,Agent as a Service)。企业不再销售工具,而是出租使用其工具的智能体。

英伟达正在帮助全球软件企业完成这一转型,支持他们基于英伟达智能体工具包构建智能体。LangChain是开发者构建智能体的首选框架,下载量超过10亿次,今日宣布推出与英伟达合作构建的企业级智能体AI平台。

3、两款“养龙虾”设备:DGX Spark与DGX Station

构建好智能体之后,下一个问题就很简单了:在哪儿运行?

它们可以在云端或AI工厂中运行,但很多开发者更倾向于在完全可控的本地环境中开发。

因此,英伟达推出两款适合运行NemoClaw的云端开发者平台:个人AI电脑DGX Spark和全球最快桌面级AI超算DGX Station

DGX Spark旨在让云端开发更具普惠性,可以运行安全、常驻的自治智能体。多项DGX Spark更新发布,支持将最多4个系统集群到统一配置中,并支持GTC大会上发布的最新AI模型。

基于GB10的DGX Spark及OEM合作伙伴系统今日起在全球正式开售。

DGX Station是终极云端开发平台,让开发者能直接在办公桌上本地构建、微调和运行具备前沿智能水平的模型。这意味着开发者可在自己的机器上构建并运行“龙虾”,无需连接云端,全程保持本地化,实现开发过程中的完整掌控与安全保障。

DGX Station将于今日起向OEM合作伙伴开放订购。

三、一大波开放模型上新,涉及智能体、物理AI和医疗健康

开放模型对AI生态发展至关重要。

作为全球最大的开源AI贡献者之一,英伟达构建并发布六大系列的开放前沿模型及训练数据配方和框架,帮开发者定制和采用。

Nemotron 3 Ultra是最强开放基础模型,在英伟达自有基础设施上完成预训练,吞吐量是此前最佳开放模型的2倍

Nemotron 3 Omni具备音频、视觉和语言理解能力,可支持智能体从视频和文档中高效提取信息。Nemotron 3 VoiceChat支持实时对话,把自动语音识别、大语言模型处理和文本转语音功能结合在一个系统中。

上周先一步发布的Nemotron 3 Super模型是英伟达迄今最强推理模型,在其同量级中智能水平最高、效率最优,在BFCL(伯克利函数调用排行榜,专门评估大模型作为智能体大脑的能力)中登顶开源模型第一,综合排名全球第四

面向物理AI和医疗健康AI的全新开放模型包括:

NVIDIA Cosmos 3,第一个统一合成世界生成、物理AI推理和动作模拟的世界基础模型。

NVIDIA GR00T N1.7,一个专为人形机器人构建的开放推理视觉语言动作(VLA)模型,在现实世界中部署具有商业可行性。

NVIDIA Alphamayo 1.5,一个面向自动驾驶汽车的一种推理VLA模型。

NVIDIA BioNeMo Proteina-Complexa,一个用于蛋白质结合体设计的生成模型,可加速基于结构的药物发现和治疗。

以上模型均已在Hugging Face上发布。

黄仁勋还预告了GR00T N2,这是一个基于DreamZero研究的下一代基础模型,预计将于今年年底发布。

该模型构建于新的世界动作模型架构上,帮助机器人在新环境中成功完成新任务的频率是领先VLA模型的2倍多。

此外,英伟达宣布成立Nemotron联盟,联手Black Forest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection、AI Star、Bomb、Thinking Machines Lab等顶尖AI实验室,汇聚专业知识、数据、评估体系和模型开发能力。

英伟达将使用内部DGX Cloud算力统一承担训练工作,避免每家机构在相同基础模型上重复投入,共同构建开放的共享基础。

开发者和企业随后可在此基础上,针对各自的行业、地区和应用场景进行专项定制。

联盟的第一个项目是一款全新的基础模型,正在英伟达DGX Cloud上训练,将成为即将发布的Nemotron 4系列的基础。

四、物理AI:工业软件、机器人龙头都在用,公布L4自动驾驶、太空计算新进展

整个IT行业只有2万亿美元,而世界上其他所有行业,都需要能与真实世界交互的AI,需要能够理解、建模并与真实世界交互的AI物理模型。

从桌面到机器人、自动驾驶汽车,从AI工厂到电信网络,英伟达的AI基础设施已无处不在。

1、物理AI数据工厂蓝图

在机器人领域,算力即数据。当前的数据生成工作流极为碎片化,数据处理、生成、仿真、评估和部署分散在不同管道中。

对此,英伟达推出物理AI数据工厂蓝图,一个基于英伟达Cosmos世界模型和Osmo机器人算力编排系统的开放参考架构,让“用仿真数据大规模训练机器人”这件事有了标准化管线。

英伟达正是用这套管线构建了Alphamaya、Cosmos和GR00T等前沿开放模型。

微软Azure和Nebius是首批采用该架构的云服务商,首批客户包括Field AI、Hexagon Robotics、Milestone Systems、Skilled AI和Teradyne Robotics。

2、机器人企业们都在用英伟达计算平台

英伟达为机器人制造商提供三类计算平台,以及开放模型、库和框架,可按需组合使用。

英伟达宣布,全球众多顶级机器人企业都在这三类计算平台上进行构建ABB、FANUC和库卡合计占全球工业机器人装机量近半,均已将Omniverse库集成至其机器人仿真工具中。

Figure、智元机器人、1X等人形机器人企业采用Isaac Lab、Newton和Cosmos等机器人仿真库进行构建,并采用Jetson和Thor进行边缘推理。

AI原生企业如Skilled AIField AI均在英伟达Isaac和Cosmos技术栈上构建其通用机器人大脑。

英伟达是目前唯一一个每家机器人公司都在构建于其上的计算平台。

3、L4自动驾驶出租车试点,扩展软件安全

自动驾驶汽车是物理AI大规模落地的第一个场景,也是全球首次大规模部署机器人。

英伟达构建了全球唯一的全栈自动驾驶平台NVIDIA DRIVE,覆盖自动驾驶训练与验证所需的架构、安全系统和AI基础设施。

其核心是NVIDIA DRIVE Hyperion,一款支持L4级自动驾驶的整车参考架构,集成计算、传感器和软件,可供整个自动驾驶生态系统构建。

自动驾驶的使命是安全,英伟达宣布推出L4自动驾驶汽车的统一软件安全基础NVIDIA Halos OS、开放推理VLA自动驾驶模型的全新版本NVIDIA Alphamamya 1.5,用于自动驾驶仿真的Omniverse NuRec也普遍可用了。

英伟达DRIVE生态系统正在持续扩大。比亚迪、吉利、日产等多家全球车企新近加入,采用DRIVE Hyperion,开发下一代L4自动驾驶程序。

Uber全球L4无人驾驶出租车将采用DRIVE Hyperion,基于英伟达全栈DRIVE AV软件运行无人驾驶网络,计划于2027年在洛杉矶和旧金山启动试点,2028年底前扩展至四大洲28座城市。

4、全球工业软件巨头都在用英伟达AI

英伟达宣布Cadence、Dassault Systèmes、西门子、新思科技等主要工业软件厂商将英伟达AI、开放模型、CUDA-X、Omniverse和GPU加速工业软件及工具带到现代、本田、奔驰、联发科、百事可乐、三星、SK海力士、台积电等公司,以加速设计、工程和制造。

这些软件领导者们还推出了由英伟达驱动的智能体解决方案,用于复杂的芯片和系统工具流。

例如,本田正使用新思科技的Ansys Fluent在英伟达Grace Blackwell上运行空气动力学模拟,速度比使用CPU快了34倍

5、英伟达、T-Mobile等将物理AI应用部署到AI-RAN基础设施

英伟达和T-Mobile宣布正与诺基亚合作,将物理AI应用部署到AI RAN基础设施

电信网络正在演变成AI基础设施。T-Mobile试点NVIDIA RTX PRO 6000 Blackwell服务器版AI基础设施,补充AI-RAN创新中心的分布式网络,以充分发挥物理AI的潜力。

基于英伟达加速计算的AI-RAN过渡解决了物理AI扩展的关键瓶颈:缺乏低延迟、安全和无处不在的连接。

虽然Wi-Fi受到覆盖范围和安全性的限制,但T-Mobile的5G独立网络为复杂AI智能体提供了广泛的覆盖和保证服务质量。

结语

5套机架级系统、7款量产芯片、1套完整智能体开发软硬件、覆盖自动驾驶/机器人/工业/边缘/太空的物理AI布局……黄仁勋用2小时信息量爆棚的演讲,绘制出一张通往未来的AI基建施工图。

在这张图里,英伟达的目标始终如一:垂直整合,横向开放,确保每一个AI系统,无论运行在哪里、做什么、规模有多大,都跑在英伟达的平台上。

未来已来,智能体大爆发正推动难以置信的计算需求。在这个AI新世界里,算力即金钱。从桌面、机器人、汽车、工厂到数据中心甚至到近地轨道,每一层都有英伟达的算力在运转,每一个token的生成都在为它的收入计数。

通过收购Groq LPU技术增强推理优势,用开源顶尖模型激励更广泛的算力需求,以全栈布局和提高工具易用性来垒高用户的迁移成本,英伟达走得每一步棋,都堪称教科书级。

英伟达是克制的,它坚持做基建商,不碰下游客户的分毫蛋糕。英伟达又是贪婪的,这种贪婪驱动它以极强的战斗力向前狂奔,为自己创造更庞大的未来市场,又以一种高明的长期主义,把各行各业的头部企业引入自己的生态轨道,把客户的成功变成自己的护城河。

最后,附上GTC 2026黄仁勋主题演讲片尾曲的歌词,来总结下本届GTC的重点:

The keynotes over, all was said Jensen mapped the road ahead.

主题演讲落幕,该说的都已讲完,黄仁勋为我们铺好了前路。

AI factories coming alive, agents learning how to drive.

AI工厂全面苏醒,智能体学会自主行动。

From open models to robots too now we break it all down for you.

从开源模型到机器人世界,现在我们为你拆解这一切。

Compute exploded, what we saw from CNN’s to OpenClaw.

从卷积网络到OpenClaw,我们亲眼见证算力大爆发。

Agents working cross the land but they need the power to meet demand.

智能体遍布各地但它们需要强大算力才能满足需求。

So we solved the problem, It was brilliant.

于是我们解决了难题,方案堪称绝妙。

We multiplied compute by forty million.

我们把算力提升了4000万倍。

Once upon an AI time training was the paradigm.

曾经的AI时代训练是核心范式。

Sure it taught the models how, but inference runs the whole world now.

它教会模型如何学习,但如今推理才是驱动世界的引擎。

Vere shows us who’s the boss at thirty-five times less the cost.

Vere告诉世界才是真正王者,成本降到1/35。

Blackwell makes the tokens sing NVIDIA, the inference King.

Blackwell让Token放声歌唱:英伟达,推理之王。

AI Factories once took year vendors pulling racks and gears.

AI工厂曾经耗时经年,厂商们堆砌机架与配件。

Built up slowly, piece by piece no clear way to scale the beast.

一点点缓慢搭建,却找不到规模化的路径。

DSX and Dynamo know what to do turning power into revenue.

DSX与Dynamo指明方向把算力直接变成营收。

Agents used to wait and see now act autonomously.

智能体过去只会观望等待。

But if they ever try to stray safe Claws block and say ‘No Way!’

如今可以完全自主行动,可一旦它们试图越界,安全Claw会阻拦:“绝对不行!”

NemoClaw’s there to guard the course and yes, my friends…

NemoClaw守护全程航向,而且,朋友们……

It’s open source.

它还是开源的!

Cars that think and droids that run this ain’t the movies, it’s all begun.

会思考的汽车,能奔跑的机器人,这不是电影,一切已经开始。

Alpamayo calls the shots it’s a GPT moment for the bots.

Alpamayo掌控全局,这是机器人的GPT时刻。

From sim to streets, now watch them drive throw your hands up for Physical AI.

从仿真到街头,看它们驰骋,为物理AI振臂高呼。

The Industrial Age built what came before now we build for AI even more.

工业时代铸就了过往,如今我们为AI再造新章。

Vera Rubin plus groq make the inference splash put them together,now it’s raining cash.

Vera 加上Groq掀起推理狂潮,两者强强联手财富如雨降临。

We build new architecture every year because Claws keep yelling, ‘More tokens here!’

我们每年都打造全新架构,因为“龙虾”不停呐喊:“这里需要更多token!”

The AI stack’s for all to make so let us all eat five layer cake.

AI技术栈由所有人共同创造,让我们共享这五层蛋糕。

The moment’s bright, the path is clear because open models led us here.

此刻光芒万丈,前路清晰坦荡,是开源模型带领我们抵达远方。

When data’s missing, there’s no dispute we just generate more with compute.

当数据缺失时毋庸置疑,我们用算力生成更多数据。

Robots learning without a flaw fueling the four scaling laws.

机器人完美学习无差错,驱动四大增长定律。

The future’s here, won’t you come and see?

未来已来,你难道不想亲眼见证?

Welcome all to GTC.

欢迎所有人来到GTC大会。

消息称因内存涨价潮,三星将为旗下Galaxy S26 FE/A57手机换用华星面板以平衡制造成本

IT之家 3 月 17 日消息,据韩媒 The Elec 报道,由于业界内存涨价潮,三星为了控制旗下中端手机成本,正计划在自家 Galaxy S26 FE 和 Galaxy A57 两款手机中使用华星光电(CSOT)面板,以维持系列机型定价。

报告称,来自华星光电的面板成本比三星目前用于自家中端 Galaxy 手机的(三星显示)面板低约 20%。同时为了保证供货量,三星仍有可能为系列机型引入三星显示的面板作为补充。

此前消息显示,三星 Galaxy A57 手机尺寸为 161.5x76.8x6.9mm,相比 7.4mm 厚的上代机型 A56 更加纤薄,重量也从前代的 198g 降到 179g。该机将采用一块 6.7 英寸 2340 x 1080 分辨率 120Hz 面板,匹配 50MP 主摄 + 12MP 超广角 + 5MP 微距。

华为史上最大电池,终于定了

2026 年的第一波华为新品,终于来了。

今天上午,华子正式官宣,将在 3 月 23 日召开春季全场景新品发布会。

结合官方消息,以及之前的爆料。

这次发布会,又攒了一波大的。

机哥先给大伙提前扒一扒,这次春季发布会都有哪些新玩意儿。

华为畅享 90 系列

在前两天的直播里,余总冷不丁地官宣了畅享 90 Pro Max

图片

没错,就连畅享这小子,也整了个 Pro Max。

好好好,这波奖池还在叠加。

背面是居中大圆影像模组。

不管是直播里的甄姬上手,还是官方放出的渲染图,机哥都没发现天线断点。

大概率,还是祖传的塑料中框。

以往畅享老被吐槽性能不给力。

好消息是,这次畅享 90 Pro Max,终于在这方面打赢翻身仗了。

网传搭载麒麟 8020,也就是 nova 15 的同款芯片。

虽然不是最高端的 9000 系列,但比上代的麒麟 710A 已经好太多。

配合鸿蒙 6 系统,日常使用完全 hold 得住。

续航也是畅享 90 Pro Max 的一大亮点。

官方表示搭载巨鲸大电池,网传是 8500mAh± 的水平。

如无意外,这会是目前华为手机里,电池最大的选手。

手机正面,则是一块是 6.84 英寸 1.5K OLED 直屏。

比塑料中框更让人破防的,是内存。

有博主爆料说,畅享 90 Pro Max 将安排到全系 8GB。

只能说,在内存成本大涨的战况面前,就算是浓眉大眼的华为,也逃不过。

要不就配置不缩水但涨价,要不就定价不涨但砍存储。

极限二选一了属于是。

除了 Pro Max,同系列还有一个定位低亿点的畅享 90 Plus。

圆角矩形影像模组,目测还是塑料中框。

麒麟 8000 芯片+巨鲸大电池,和 Pro Max 一样的思路。

不过正面这个大下巴嘛…LCD 没跑了。

据说还是一块 720P LCD,有点辣眼睛。

虽然说大多数机友选择畅享系列,估计都是给自家长辈买的。

性能、拍照啥的要求不会太高,只要流畅刷视频、续航够猛。

就已经很够用了。

但有一说一。

有需要的话,还是蹲一手 Pro Max,体验会好很多。

另外针对专业跑步领域的智能手表,华为 WATCH GT Runner 2

主打高精度定位、马拉松模式,表身升级成钛合金前壳+第二代昆仑玻璃。

此前已经在海外发布,如今国行版也公布了。

大概率也会在这次发布会上推出。

除了新手机和新手表。

最近热度拉满的两个「界」,才是这次发布会的主角。

尚界 Z7/Z7T

卷完中高端之后,鸿蒙智行又开始盯向年轻人群体了。

之前的鸿蒙智行技术焕新发布会上。

官方称尚界 Z7 为,「鸿蒙智行最年轻的车」。

定位是中大型纯电轿跑,车长 5 米,轴距 3 米。

整体的设计,有种似曾相识的感觉。

长车头,大溜背,半隐藏式的门把手设计。

加上这个大灯和尾灯的造型。

心有灵犀,心有灵犀。

除了 Z7,还有个猎装版 Z7T。

这也是鸿蒙系里面,第一款猎装车。

Z7T 的尾部线条不同,行李箱空间也更大。

啧啧,这车屁股的造型,机哥就馋这一口。

至于内饰、核心配置、辅助驾驶等等,Z7 和 Z7T 基本一致。

全系标配华为巨鲸电池平台,有 81kWh、100kWh 两种电池规格。

CLTC 续航,最高能干到 905km(Z7 Max+ 版本)。

提供了 170kW+264kW 双电机四驱,和 264kW 单电机后驱两个版本。

其中四驱版本,零百加速能到 3.9s。

全系标配鸿蒙座舱 4.0 和华为乾崑 ADS 4.0,包括两颗激光雷达 + 27 个传感器。

属于智能化满级堆料了。

内饰方面,Z7 系列将首发搭载随动四维屏。

不仅可以根据需要,左右转动屏幕的朝向。

还支持前后双向调节,方便后排乘客看清屏幕内容。

副驾的位置还整了个灵感橱窗。

乍看之下像是个副驾屏,但其实是一个用来摆放各种小尺寸手办、模型之类的空间。

感觉女朋友在副驾上补妆时,把口红粉底液等各种装备,塞在这个小挖槽里,也是很方便啊。

至于 Z7/Z7T 对标友商的哪款车,看官宣文案就知道了。

雷总前脚才说。

新一代 SU7,「安全、驾控、智能体验、豪华质感,都有了巨大的提升」。

尚界后脚就官宣,「更安全、更好开,更智能、更豪华」。

最后还补了刀,「比新一代,更期待」。

这哪是对标啊?分明是贴脸输出了吧。

如无意外,Z7 系列的价格也是在 25W~30W 的区间。

问界 M6

继 M5、M7、M8、M9 之后,问界迎来了一位画风突变的新成员。

定位智能运动 SUV 的 M6。

如果说,之前的问界,有一种成熟稳重的老钱风。

那这次的 M6,完全反着来。

已经官宣的配色包括紫、青、白、银、蓝、黑、橙。

配色风格整体偏高饱和,显然啊,M6 瞄准的又是年轻人。

4.96m 的车长,2.95m 的轴距,整体延续了问界的家族化设计。

内饰部分。

D 型方向盘,白紫双拼的配色,一体化运动座椅。

前面 Z7 系列有的随动四维屏、副驾灵感橱窗,似乎也有在 M6 安排上。

讲真,这么年轻化的设计,你不说,机哥也很难把它和问界联系起来。

根据网上的一些爆料,问界 M6 还支持选配后排娱乐屏。

不过选配之后,全景天幕就没有喽。

配置方面,问界 M6 有增程版和纯电版两个版本。

纯电版标配 100 度电池。

可以选择双 227kW 电机,或者 160kW+180kW 双电机。

增程版则有 37 度和 53 度两个版本,对应纯电续航 180km 和 272(260)km。

搭载 165kW+180kW 电机,以及 1.5T 增程器。

辅助驾驶方面直接拉满。

根据此前的爆料,M6 有望搭载华为乾崑 896 线激光雷达。

这在之前的 M9 已经用上了,也是目前全球量产的最高规格激光雷达。

相比之前的 192 线,896 线能够看得更广,分辨率也提升 4 倍。

已经从「感知到有东西」,进化为「感知到是什么东西」。

M6 的定位介于 M5 和 M7 之间,定价大概率和 Z7 差不多。

也就是 25W~30W 这个范围。

但不得不说,这个价位的 SUV,早就卷到不行。

像特斯拉 Model Y、理想 L6、小米 YU7,都卡在这个价位段。

就看 M6 接下来还能端出什么新料了。

另外享界双 9、智界双 7、问界 M8、M7 等,都会在这次发布会上迎来小改款。

3 款新车,6 款改款。

只能说,这次春季发布会,主打一个量大管饱。

至于机友们比较期待的阔折叠华为 Pura X2,从目前的消息来看,似乎赶不上这次发布会。

但有消息称,会安排在 4 月发布。

根据爆料,Pura X2 的变化还挺大。

上代 Pura X,虽然定位是阔折叠,但本质上还是竖折。

外屏能用,但基本上只能处理看信息、切歌之类的简单活儿。

真要回消息、刷抖音,还是得老老实实用内屏。

而 Pura X2,预计会延续阔折叠的设计。

但画风彻底变了。

从竖折改成横折,外屏扩展到 5.5 英寸。

使用外屏时,大概和用 iPhone 13 mini 差不多。

可以满足日常使用的基本需求,不像上代的方形小屏那样捉急。

同时内屏大小也会提升到 7.69 英寸,维持 16:10 的比例。

基本就是 Pura X 大了一圈的感觉。

其他配置像麒麟 9030、红枫四摄、电池等常规升级,都会安排上。

不过 4 月份最大的硬菜,还得是 Pura 90 系列

目前 Pura 90 系列已经备案。

打算冲新手机的机友,可以蹲一波。

图片来自网络

火药味有点浓啊

零跑汽车今年要挑战超9万的月均销量

2026.03.17

本文字数:2090,阅读时长大约4分钟

作者 | 第一财经 葛慧

2025年,零跑汽车(9863.HK)迎来了成立以来的历史性转折。这家曾长期处于“烧钱”状态的新势力车企,在成立十周年之际,首次向市场交出了一份年度盈利的成绩单——净利润5.4亿元,而一年前这一数字还是净亏损28.2亿元。

作为继理想之后第二家实现全年盈利的中国新势力车企,尽管零跑5.4亿元的全年利润与理想的11亿元相比仍有差距,但两家车企在2025年走出了截然不同的增长路径:理想凭借高单价车型维持利润空间,零跑则依靠规模效应实现扭亏为盈。

2026年,零跑为自己定下了年销百万的销量目标。国内大盘的存量厮杀、原材料的全面涨价、海外不确定性和费用投入的攀升等,都是这家志在全球的车企在今年需要跨越的关卡。

继理想后第二家全年盈利的新势力

3月16日发布的财报显示,2025年零跑汽车实现总收入647.3亿元,同比增长101.3%;全年交付量59.7万辆,同比翻倍,超越蔚来、小鹏等同期选手,首次登顶中国造车新势力销量榜首。

盈利能力的改善,直接反映在毛利率上。2025年全年毛利率14.5%,较2024年的8.4%提升6.1个百分点;第四季度毛利率更攀升至15.0%,创下季度新高。管理层将这一成绩归因于三点:全域自研带来的成本控制、高毛利车型占比提升,以及海外业务和碳积分交易等非车收入的贡献。

值得一提的是,零跑2025年来自服务及其他销售的收入达27.2亿元,同比激增413.2%,成为利润表中的“隐形冠军”。这部分收入主要包括海外碳积分交易、技术合作项目及出口相关服务费。

海外市场是另一大亮点。2025年零跑出口量达6.7万辆,位列新势力第一,截至2026年2月底累计出口已突破10万辆。通过与Stellantis的合资公司“零跑国际”,在欧洲、中东、非洲、南美和亚太等约40个国际市场建立了约900家销售网点。其中,零跑在欧洲布局超过800家销售网点,2025年第四季度在欧洲29国的纯电销量位列中国乘用车品牌第二。

挑战百万销量目标

在交出这份亮眼成绩单的同时,面对今年市场的不确定性,零跑是否会调整年销百万的目标是市场最关心的话题之一。

在3月16日的业绩交流会上,零跑汽车副总裁李腾飞明确回应称,销量目标仍为100万辆没有变(国内为85万辆,海外15万辆)。李腾飞表示,在今年大盘持平的这个局面上,公司认为整体的新能源渗透率会有持续的提升,因此零跑对于今年国内市场的判断整体仍趋向乐观。他同时解释,一、二月份的需求虽然整体表现较弱,但这只是需求在时间结构上的调整,仍然在后续的月份中持续释放,公司对年度销量仍然非常有信心。

根据公开数据,零跑1-2月累计交付量约6万辆(1月3.2万辆、2月2.8万辆),这意味着,若要在剩余10个月内达成百万目标,接下来的月均销量需达到9.4万辆——这一数字远超行业现有水平。即便在2025年销量高峰期,零跑作为月度销冠,10月和11月的交付量也刚刚突破7万辆。

从产品线来看,2026年零跑有4款新车发售,产品线进一步丰富。今年也是零跑品牌向上的重要年份,四款新车中,包含了D系列的SUV车型D19和MPV车型D99。

海外方面,地缘政治冲突、海运成本波动、欧盟关税政策等外部变量,一方面存在难以预判的风险,但也许对中国的新能源汽车出海是更好的机会。对此,李腾飞表示,如果欧洲油气供应紧张、价格持续走高,反而会变相提升新能源汽车的市场需求,从而利好零跑在欧洲的销售。

全年盈利能否持续

今年以来,上游原材料价格持续上涨正在传导至整车厂,涨价的压力会在多大程度上影响到整车厂的利润,也是市场关心的重点。

李腾飞表示,零跑的应对策略是进一步深化“全域自研”来应对整个行业面临的原材料成本上涨问题。2025年公司已实现压缩机电源等核心部件的自研量产,座椅、保险杠等高附加值零部件也在自研之列。

“过去整个行业经历了多次的原材料阶段性波动,相信今年的上涨也不会持续特别长的时间。”李腾飞进一步解释称,原材料价格上涨传到整车厂的成传导需要一定的周期,因此不会对毛利产生特别大的影响。公司通过对成本的整体控制,可以有效对冲原材料价格上涨带来的影响。

另一个值得关注的维度是研发投入。2025年,零跑研发支出达42.9亿元,同比增长47.9%。但从行业横向对比来看,这一投入规模仍显克制——同期理想汽车研发投入为113亿元,蔚来也达到106亿元,零跑的研发投入约为这两家的四成。在业绩会上,李腾飞回应称,2026年公司在新技术、新品牌、新车型上的投入将持续加码,研发人才的引进也将同步提速,“研发费用会较2025年有一个非常明显的提升”。

从亏损28亿到盈利5.4亿,零跑用一年时间完成了从生存到盈利的转换。但在市场对技术创新要求日益苛刻的当下,2026年的“百万辆大考”,考验的不仅是销量爬坡的速度,更是规模、利润与技术投入之间的三重平衡。

微信编辑 | 苏小