中国移动“移动梦网”等业务将下线,承载2G时代移动上网印记

中国移动近期发布公告称,因产品运营策略调整,和生活、农信通、Mobile Market、12590(语音杂志)、梦网全网短彩业务5款产品,将于2026年4月30日24:00正式下线并停止相关服务。

其中,梦网全网短彩是目前“移动梦网”仅存的业务。作为中国移动2000年在2G向2.5G过渡时期推出的移动数据业务品牌,移动梦网意为“Mobile+Internet”,曾囊括短信、彩信、手机上网(WAP)、手机游戏等多元服务。移动梦网是2G时代手机上网的重要入口,也是中国移动SP/CP增值业务发展的典型模式。业务一经推出便迅速走红,巅峰时月活用户接近1亿户。

2019年12月,移动梦网热点资讯服务正式停止运营。2025年8月,部分SP(服务提供商)提供的移动梦网短彩信业务服务停止。

中国移动已通过官方APP、10086客服热线、线下营业厅等多渠道发布公告,对本次5款产品关停事宜作出统一规定,全国执行无例外、不延期、不保留政策。

社交平台上,“移动梦网”相关话题引发热议,网友纷纷回忆“偷菜种菜”“文字版NBA直播”等使用往事。在流量按KB计费、网速以Kbps衡量的年代,它是无数人第一次用手机上网的入口,订彩铃、聊文字版QQ、玩网页小游戏、发彩信送祝福,构成了一代人的青春记忆。

通过构建SP生态,移动梦网不仅推动了移动互联网的全民启蒙,也让腾讯、网易、新浪、搜狐等初代互联网企业找到了盈利路径。据悉,腾讯2001年财报显示当年净利润达1021.6万元,而同期移动QQ业务作为腾讯核心盈利来源,收入占比接近100%。

随着智能手机普及、4G网络商用,原生APP逐渐取代WAP门户,微信等社交软件重构了短信沟通场景。2019年,移动梦网主体业务已停止运营,此次下线的短彩业务,仅为适配部分老年用户习惯及旧系统兼容而存续。老化的技术架构也让维护成本日益攀升,其退场成为时代发展的必然。

在2G时代,中国联通、中国电信也曾推出与中国移动“移动梦网”功能类似的移动数据业务品牌,比如联通的“网通资讯”和“联通在信”,中国电信则有“互联星空”业务,均聚焦当时的手机上网、增值信息服务等需求,其发展轨迹与移动梦网相似,目前均已基本退出市场或完成功能迭代。

此次业务下线并非简单的服务缩减,中国移动在聚焦5G、AI、算力网络等新赛道的战略转型举措。据公开数据显示,中国移动正从“通信服务商”向“数字服务商”全面转型,其数字服务收入占比已超30%。

马斯克:单颗AI6芯片有望达到双SoC AI5的性能水平

马斯克当地时间3月18日发文称,AI5的性能将远超其规格,因为特斯拉的整个AI软件栈都旨在最大限度地利用每一条电路,AI软件和硬件是协同优化的。AI5主要针对Optimus和Robotaxi中的AI边缘计算进行了优化。马斯克称,AI5仍有巨大的提升空间。在相同的半晶圆面积和工艺节点下,单颗AI6芯片有望达到双SoC AI5的性能水平。

腾讯的“旧世界”结束了

本文系基于公开资料撰写,仅作为信息交流之用,不构成任何投资建议

3月17日尾盘,腾讯发布了2025年四季度财报,营业收入录得1943.7亿元,同比增长12.7%,略高于市场一致性预期,净利润为582.6亿元,同比增长14%,经营利润率35.8%,与预期基本一致。(下图为腾讯一图流,数据均来自于财报,单位亿元,锦缎研究院整理)

腾讯的主要业务分为三个模块:增值服务(即售卖数字化商品)、广告和金融科技及企业服务。

其中有五个核心的营收贡献业务,增值服务中游戏占2/3,是目前腾讯营收的第一业务,其余是社交网络,比如视频号、内容平台的会员和小程序等等。营销服务是腾讯第三大业务,主要就是广告收入;金融科技及企业服务包含较多,营收贡献分为两部分:支付、财付通等互联网金融产品,以及腾讯云业务。

除此之外,作为港股龙头企业、中概互联最核心的标的,腾讯在前沿科技尤其是AI领域的动向也值得我们关注。坦诚讲现如今财报的信息较市场反应而言相对滞后,AI的发展早已不是按月去计量变化,因此我们也将结合资本开支动向和电话会表述,来介绍下腾讯最新的AI战略有何变化。

三季度整体的业务表现总结而言:

·游戏业务的基本盘非常稳定,长青游戏还有价值可挖,去年爆火的几款游戏持续了高光表现,短期内不会出现太大的波动。

·视频号商业化节奏还是慢,内容矩阵受的冲击较大,但云业务的红利期刚刚开始。

·费率明显提升,资本开支增长明显,折旧也在加速,股票的回购预期降温,种种迹象表明腾讯的AI动作正在提速,结合管理层近期的表述来看,All in AI就是腾讯2026年的唯一主线。

具体业绩分析如下:

01

游戏业务增速放缓,基本盘稳固,但缺少新游预期

2025年第四季度,腾讯游戏业务营收(增值服务反推)593亿元,同比增长20.5%,与2024年同期增速基本持平,但是相较于前三季度增速略低,并且环比下降了6.8%。当然,这也比较符合市场预期,毕竟腾讯历年四季度游戏业务营收都低于三季度。

从细分市场来看,本土游戏市场收入达到382亿元,同比增速15%,海外游戏市场收入211亿元,同比增长32%,海外游戏市场的增速远高于国内市场。从财报披露的产品侧来看,四季度无论是国内还是海外,基本上都是长青游戏持续发力贡献,国内依靠去年大火的《三角洲行动》以及《无畏契约》手游、《鸣嘲》变现带来增量;海外还是依靠Supercall旗下游戏和《Pubg Mobile》。

从游戏内容来看,四季度腾讯并没有特别出圈的新游,不过《三角洲行动》、《无畏契约》手游、《鸣嘲》三大新长青游戏还有很强的开发潜力,根据Questmobile的数据显示,2025年12月,移动端月活规模增速最快的正是《三角洲行动》,月活同比增速达到了225%,同时《三角洲行动》也成为继开心消消乐和王者荣耀后,第三款月活突破1500万的手游,潜力巨大。

虽然目前腾讯的战略重点肯定是AI,但是相较于其他互联网企业,腾讯的游戏业务具备得天独厚的优势——几乎是市场中无可撼动最强的现金奶牛。结合电话会中James Michelle的表述来看,腾讯内部对游戏行业的认知非常强,腾讯理解AI时代游戏供给侧放量的变化,有成熟的长期运营经营,也有渠道优势,短期内基本盘优势不会改变。

当然,鸡蛋里面挑骨头,表现优异的游戏中,除了端转手的无畏契约,基本都是2025年以前的游戏,目前还未看到下一款有望成为长青游戏的腾讯新游。

02

视频号商业化进度还是较慢、金科企服的表现符合预期

增值服务业务板块的另外一面,就是涵盖视频号和内容平台会员的社交网络业务,2025年四季度腾讯社交网络业务收入306亿元,同比增速仅有2.7%,连续三个季度增速下滑,显然这与年初市场对今年视频号商业化提速的预期不符。

目前社交网络是腾讯四个核心成熟业务中,增速最低的业务,笔者个人感觉,腾讯内部对视频号的定位可能还在犹豫,没有过度提升广告加载率,还是寄希望于视频号自然流量能够更高,去夯实微信社交的地位。

毕竟拥有最大用户基数的微信一定是AI应用生长最好的土壤。

金科企服方面,四季度录得营收608亿,增速环比下滑,但同比增速依然有8.4%,也是腾讯四个主要业务中,唯一一个环比三季度取得正增长的业务。当然金融科技相对平稳,最核心的还是云业务,企业服务同比增速达到了22%。

对于目前的AI发展而言,云基础设施的红利期还远远没有结束,今年一季度Openclaw的爆火,可能会进一步拉动云业务的表现。

03

营销业务低增速高毛利,AI有用但不明显

第四季度,腾讯营销服务业务营收录得411亿元,同比增速达到了17.5%,虽然略低于预期,但营销服务整体看过去一年内的增速表现不错,在腾讯内部仅次于游戏业务。

并且,腾讯四季度广告层面的效率表现不俗,营销业务的实际利润率接近60%,反超了增值服务业务。

不同于美国消费市场的繁荣,中国广告市场的实际增速并不算高,而腾讯营销业务低增速,高毛利,似乎也向投资者证实了两个事:

·其一,视频号虽然商业化进度较慢,但是基本盘较深,用户量基数还是很大的,腾讯业绩会透露视频号是目前中国第二大短视频服务平台,未来潜在的上限还是不错。

·其二,AI确实对目前的广告投放效率有明显的正面作用,但考虑到视频号实际增速(2025年全年播放时长增长20%),效果还不算特别明显。

04

费率提升明显,三费水平均环比提升

四季度腾讯收入侧没有明显预期外的变化,但是成本侧变化不算小,首先就是整体的费率出现了明显的抬头,环比销售费率增长了70bp,管理费率增长了50bp,研发费率增长了40bp。

销售费用增长很好理解,Chatbot买量是预期内的成本增长,研发费率也相对好理解,AI投入,包括年初姚顺雨加入前,腾讯会对研发侧进行集中的投入都在预期内。

管理费率增长略有高于预期,但是结合年初腾讯AI组织架构调整,包括一些管理人士变动,也就不难理解管理费用的短期支出。

05

资本开支明显回暖,主动加快了折旧速率

2025年四季度,腾讯录得资本支出196.3亿元,虽然仅有2024年同期的一半左右,但是环比2025年第二、第三季度还是有所提升,并且从现金流量来看,实际资本支出达到了224亿(包含预付款未确认)。

虽然资本开支还比不上同行,但是可以看出来2026年腾讯资本开支决心。四季度腾讯主动调整了折旧的节奏,同比折旧支出增速达到了29%。

我们此前也多次分析过,一般互联网企业折旧加速,就意味着资本支出幅度可能会增强。刘炽平在电话会中也表示,2026年会继续增加资本开支的幅度。只不过目前受制于国内购买显卡受限,腾讯没有给出明确的指引。

06

马总发话,未来的腾讯只有一条主线

总结来看,腾讯的这份财报相对平稳,没有出现业务层面显著的波动。最大的变化可能是管理层的态度,三季度业绩会中还表示不缺GPU,今年年初在见识到Openclaw爆火,一些竞品chatbot出圈,seedance2.0热舞后,马化腾还是承认腾讯的AI节奏慢了。

此前在三季度的分析中我们也提过,过去腾讯那种互联网时代用资本布局的方式寻求捷径是走不通的,暂不论AI标的目前恐怖的估值系数,向腾讯这样的企业,如果没有自身的AI储备,所有的业务优势都将会被抹平。

这份财报传递的最强信号是:腾讯不再"嘴硬"了。从马化腾承认节奏慢,到刘炽平详解"买卡"预算,到组织架构调整和管理人士变动,再到减少股票回购的预期,一切指向一个清晰的战略方向,2026年的腾讯只有一条主线:All in AI。

对于腾讯的投资者而言,如果你追求稳定的资本回报,那应该转身离去。而如果相信腾讯能够依托现有的土壤,在AI战场取得成果,那或许不应该太过在意短期的估值波动。

鱼和熊掌,毕竟不可兼得。

打造全球科技交流合作盛会——2026中关村论坛年会看点前瞻

  新华社北京3月18日电 题:打造全球科技交流合作盛会——2026中关村论坛年会看点前瞻

  新华社记者刘祯

  2026中关村论坛年会将于3月25日至29日在北京举办,今年的主题为“科技创新与产业创新深度融合”。本届论坛年会有哪些看点?3月18日,国务院新闻办公室举行新闻发布会介绍有关情况。

  聚焦前沿科技

  “今年论坛年会设置了论坛会议、成果发布、技术交易、前沿大赛、配套活动五大板块,共有百余场活动,预计将有来自100多个国家和地区的上千名嘉宾参与。”科技部副部长林新说。

  6G、脑机接口、细胞与基因治疗……本届论坛年会还将围绕这些前沿领域举办60场平行论坛,深入探讨相关领域科技创新和产业应用。

  林新介绍,今年将首次举办国家自然科学基金学术论坛,围绕仿生智能、电力+算力融合发展、高速磁浮交通技术等前沿方向,探讨重大科学问题,推动基础科学研究与社会经济发展精准对接。

  值得一提的是,继去年论坛现场以超高的机器人“含量”拉满科技感体验后,今年将让参会嘉宾进一步体验人工智能的进化如何赋能千行百业。

  北京市委常委、副市长靳伟说,今年AI“翻译官”将全程在岗,服务语言拓展到法、俄、西等8种语言,机器人餐吧开门迎客,还有机器人乐队也将带来精彩表演。

  此外,2025年度“中国科学十大进展”《国家创新指数报告》《2025全球工程前沿》《开放科学国际合作行动计划》等一批科技成果、权威报告、政策举措等也将在论坛年会期间发布。

  突出新质生产力培育

  林新介绍,本届论坛年会突出科技创新和产业创新深度融合,将举办前沿科技大赛、技术交易大会等,为科技成果转化提供对接平台。

  其中,论坛活动更加突出新质生产力培育,瞄准具身智能、脑机接口、高端仪器等重点领域,促进科技成果向新质生产力转化。比如,“人工智能+产业”论坛将围绕自动驾驶、行业大模型等场景,深入研讨AI赋能实体经济的方法与路径;企业发现与发明论坛将聚焦产业科技问题,探讨需求牵引下的研发模式。

  靳伟说,作为创新企业“首秀场”,今年论坛年会期间将举办第九届中关村国际前沿科技大赛总决赛。大赛已培育30多家独角兽企业,今年境外参赛队伍报名占比超四成,人工智能项目是去年的2.4倍。

  此外,今年将举办20余场技术交易对接活动,来自境内外的500余个科技项目将参与路演推介,报名参加的投资机构为历年最多。在新投用的技术交易中心,百余名技术经理人将活跃在现场,当好“牵线人”。

  深化全球开放合作

  在京国际科技组织总数达到53家;2025年新设外资企业数量增长20%;成功举办国际科技园及创新区域协会世界大会,发布“中关村倡议”凝聚全球科技园共识……北京市特别是中关村始终走在科技创新的前沿,持续深化开放合作格局。

  近年来,中关村论坛年会的国际“朋友圈”持续扩大,外国嘉宾、国际机构、国际组织以及跨国企业参会的比例越来越大。

  林新介绍,今年将广泛邀请国际组织负责人、国际科技大奖得主、国内外知名科学家、智库专家等嘉宾,围绕全球性议题深度对话。

  中关村论坛是支撑国际科技创新中心建设的重要平台。今年,论坛年会突出国际科创中心建设扩围,将发布北京(京津冀)国际科技创新中心有关政策措施,推动京津冀协同发展走深走实。

  “北京是一片科技创新的沃土,中关村论坛是一个面向全球科技创新交流合作的国家级平台。我们将以开放促改革、以改革促发展,实现更大范围、更宽领域、更深层次国际交流与合作。”靳伟说。

千寻智能与京东集团达成战略合作

每经AI快讯,千寻智能官微3月19日消息,近日,具身智能企业千寻智能与京东集团正式签署战略合作协议。双方宣布将在2026年至2029年期间,围绕消费级产品定制、技术合作、场景开放落地及营销共建等方面展开深度合作,共同推动具身智能技术在零售领域的应用加速。

大模型“想太多干太少”?国内AI团队祭出多个技术大招,破解成本困局

作者 | 云鹏

编辑 | 漠影

当前,“龙虾”火爆全球,从消费者到企业,纷纷开始“养龙虾”,但在部分提高效率的同时,这种AI智能体所带来的问题也同样突出。

除了数据安全,处理复杂任务分分钟烧掉海量Token的问题也困扰不少用户,干活一时爽,一看账单傻眼。

海外有用户曝出,他只是问了一句“你好”,模型进行大量思考直接烧掉数十美元。

如果说个人场景尚且可以灵活处理,但企业级AI应用落地,则必须要面对高Token消耗带来的成本挑战。

OpenClaw这类Agent其实只是AI的“手脚”,背后的模型才是真正的“大脑”,要解决高消耗高成本的问题,仍然要从核心的模型入手。

当前企业在Agent模型底座的选择上面临着“两难困境”,想要高智能,就必须面对成倍Token消耗,以及推理延迟的增加,而选择低成本,则往往需要牺牲模型能力。

对企业来说,任何无效Token消耗都是真金白银的流失,因此在当下,模型效率已经成为决定企业智能的核心要素。

近来,国内AI大模型团队YuanLab.ai发布并开源了Yuan3.0 Ultra多模态基础大模型,在国内外引起较高关注。

发布当天,其在GitHub上公布了完整的模型权重、代码和技术报告:

「开源地址 」

GitHub项目:

https://github.com/Yuan-lab-LLM/Yuan3.0-Ultra

论文链接:

https://arxiv.org/abs/2601.14327

值得一提的是,这是当前业界仅有的三个万亿级开源多模态大模型之一,其最核心的创新之处在于通过LAEP技术——基于学习的自适应专家剪枝,在不破坏功能结构的情况下剪除冗余,实现了33%的参数减少,且训练速度还暴涨了49%,输出时间缩短14%的同时准确率提高16%。

可以说是真正的鱼和熊掌兼得,成本和智能“既要又要”。

从检索增强生成、多模态文档理解、表格数据分析、内容摘要与工具调用等任务,Yuan3.0 Ultra在多个企业级AI常常面对的核心场景和难点方面表现突出。

在YuanLab.ai团队看来,效率不是成本优化的“可选项”,而是模型能力的“组成部分”,他们的目标就是让企业能以更少的算力开销,产生更大的智能。

Yuan3.0 Ultra证明了旗舰级智能可以通过更高效、更经济、更可控的方式实现,可以说给企业Agent落地提供了核心能力支撑。

一、三项关键技术创新背后,如何实现“有效思考”与“极致降本”?

26年初,YuanLab.ai团队就已经发布了Yuan3.0 Flash模型,聚焦推理端效率,减少无效token消耗,通过RIRM、RAPO等核心技术创新打破了“高智能必须高Token消耗”的悖论,验证了“更少算力,并不意味着更弱能力”。

而这次发布的Yuan 3.0 Ultra旗舰模型,进一步裁除冗余专家,让模型结构更加精炼,通过LAEP、LFA、RIRM等技术实现了“不需要无节制堆算力就能获得更强智能”。

整体来看,Yuan 3.0 Ultra从预训练架构、注意力机制到推理范式,进行了全链路技术创新。基于“有效思考”技术体系,其实现了“有效规模”的进一步突破,可以说解决了大模型“参数虚高、算力浪费、落地困难”的痛点。

具体来看,其核心突破点之一是自适应专家裁剪算法(LAEP),简单来说,专家不需要更多,而在于更有效。

如果把MoE架构大模型比作一个百人研发团队,其核心优势本该是“专业分工、高效协作”,但在真实的工程实践中,却出现了严重的“团队管理失控”。

MoE大模型普遍存在预训练专家负载严重不均衡的问题,训练稳定阶段最高与最低专家负载差异可达近500倍。

少数专家承担了绝大多数计算任务,而大量低贡献专家长期处于低负载状态,造成算力资源的严重浪费,也导致模型参数虚高、利用效率低下,企业落地成本居高不下。

预训练过程中各层专家token分布的演化趋势(左列)及稳定阶段负载分布(右列)

简单来说:少数几个专家干了绝大多数的活,部分专家全程“摸鱼”。

行业主流MoE模型(Mixtral、DeepSeek-V3)普遍依赖辅助损失函数来约束专家利用率,“精度与均衡不可兼得”。

YuanLab.ai团队研发了自适应专家裁剪算法(LAEP),基于MoE模型预训练过程中自然形成的专家功能专一化规律,动态识别并剔除低贡献冗余专家,对模型结构进行自适应裁剪与专家重排。

具体来说,就是“多劳多得”、“按劳分配”,计算资源倾斜给价值和贡献更高的专家。

这一过程类比人类大脑学习过程中对神经连接的优化重组——保留高效信息处理通路,削弱低效连接,在维持甚至强化模型专业化能力的同时,提升算力利用效率。

从实际效果来看,预训练初始1515B参数优化至1010B,参数规模减少33.3%;预训练算力效率提升49%、单次推理仅激活68.8B参数;性能方面也处于头部阵营。

Yuan3.0 Ultra采用LAEP+专家重排机制有效提升机制训练效率

核心突破点之二,是语义建模能力升级,基于LFA技术强化长上下文语义关联能力。

在企业实际应用中,模型常常需要处理图文混排的财报、多页技术文档、跨文档知识检索等复杂任务。这类场景对长上下文语义关联能力要求极高——模型必须能从大量信息中精准捕捉关键内容,忽略无关干扰。

为此,Yuan3.0 Ultra引入了局部过滤注意力机制(Localized Filtering-based Attention,LFA),实现对语义关联的精准筛选与强化,有效过滤无效注意力干扰,提升模型对长上下文、复杂语义关系的建模能力,从而更准确地理解各种信息来源的脉络。

从实际效果来看,面对企业级场景中长上下文的图文混排文档解析、跨文档知识检索、多步骤Agent推理等需求,模型在长文本、复杂结构信息处理中都能保持较高准确率。

核心突破点之三,是升级“有效思考”范式,利用RIRM+RAPO技术体系,减少无效Token。这也是聚焦推理阶段另一核心浪费——大模型“过度反思”。

在Agent连续任务链中,大模型常常陷入“过度反思”——明明已经得出正确答案,却还要反复推敲,导致Token消耗成倍增加,响应延迟拉长。这种无效反思在复杂任务中尤为突出,是企业级AI落地的一大成本黑洞。

Yuan3.0 Ultra从强化学习层面入手,通过RIRM+RAPO两大技术创新根治这一顽疾:

反思抑制奖励机制(RIRM)就是在万亿参数规模的大规模强化学习中,对反思次数引入精细化奖励约束,教导模型在复杂企业级任务中,获得可靠答案后主动停止无效反思,同时保留深度推理能力,从根本上修正“过度思考”行为。

采用优化后的RIRM训练Yuan3.0 Ultra的动态过程,训练准确率在整个训练过程中呈现稳步上升趋势,平均响应长度随着训练的进行逐渐下降

反思感知自适应策略优化算法(RAPO)则针对万亿级MoE模型强化学习训练不稳定、效率低的行业难题,完成了算法架构的深度优化,进一步提升大规模MoE模型的训练稳定性与训练效率。

总体来看,LAEP决定了模型“用多少有效参数去学”、LFA决定了模型“如何精准捕捉有效信息”、RAPO保障了模型“如何稳定高效地学习”、RIRM明确了模型“推理到什么程度该停”。

YuanLab.ai团队一系列底层模型架构创新,让万亿级旗舰模型实现了“企业用得起、用得好、能落地”。

二、吃透企业AI应用核心场景,五项关键能力出众

诸多技术创新加持下,Yuan3.0 Ultra在大部分核心企业场景中都有出色表现,用团队的话来说,Yuan3.0 Ultra从设计阶段就针对企业真实应用场景进行能力构建,是一个能够驱动复杂智能体(Agent)的“核心引擎。

检索增强生成(RAG)领域,Yuan3.0 Ultra在ChatRAG、DocMatix等评测中取得领先成绩,可以精准定位并利用企业私域知识。

ChatRAG涵盖长文本检索、短文本与结构化检索及维基百科检索,Yuan3.0 Ultra在这项测试中的平均准确率68.2%,10项任务中9项位居首位。

在企业实际业务中,大量关键信息存在于技术方案、财报报告、行业研究材料等文档中,这些内容通常包含图文混排结构、复杂表格以及跨页面信息关联,是企业构建知识体系过程的难点。

多模态复杂表格理解评测MMTab覆盖表格问答、事实核查、长文本表格处理等多个任务类型,Yuan3.0 Ultra在这一测试中以62.3%的平均准确率超越Claude Opus 4.6和Gemini 3.1 Pro。

高质量总结生成方面,企业内部知识通常分散在文档库、知识库系统以及业务数据库中,信息来源复杂且结构不统一,要在这样的环境中获取有效信息,不仅需要检索能力,还需要对多源内容进行语义整合与综合分析。

在文本摘要生成评测SummEval中,Yuan3.0 Ultra平均精度62.8%,表现出色。这一测试从词汇重叠、语义相似度与事实一致性三个维度综合评估摘要质量,是智能体应用中历史信息压缩能力的重要参考。

精通多步骤工具调用与协作,为自动化执行复杂任务打下坚实基础,是Agent应用关键能力,在智能体工具调用方面,Yuan3.0 Ultra表现均衡,在工具调用评测BFCL V3中平均得分67.8%。

这一测试包含静态函数选择、动态实时执行、多轮上下文维护、相关性检测与无关调用拒绝等维度评估真实工具调用能力。

最后,在企业运营场景中,大量业务决策依赖数据库查询、报表分析以及跨系统数据整合,在这些场景下,企业往往需要将业务问题转化为数据库查询,并结合数据结果进行分析与总结。

在考察数据库查询语句生成能力的Text-to-SQL评测中,Yuan3.0 Ultra在Spider 1.0及BIRD评测上表现出色。

从综合测试结果来看,Yuan3.0 Ultra是真正能打的企业大模型。

结语:提升单位算力真实智能密度,打破企业两难困境

“龙虾”的火爆让我们看到了AI给个人和企业带来的巨大价值潜力,但同样也让我们看到了让AI真正能“干好活”,落地在企业场景所必然要面对的挑战。

从Flash到Ultra,YuanLab.ai团队一直在向着这一方向发力,直指企业核心痛点,其技术创新目标很明确:提升单位算力所产生的真实智能密度,让大模型的能力可以真正转化为企业可落地、可负担、可稳定使用的业务价值。

此次Yuan3.0 Ultra推动大模型从“能力展示”走向“规模化落地”,打破了困扰行业已久的成本效率困境。这是YuanLab.ai团队对下一代基础大模型结构的又一次探索实践,给业界MoE大模型结构创新、预训练算力效率提升提供了新的路径。

面向未来,AI必将更加深入地与企业业务相结合,在更多真实场景中落地,而底层模型技术的迭代仍将是核心驱动力,YuanLab.ai团队不仅给技术的探索提供了新思路,也给企业提供了用好AI的更优解。

人工智能重塑短视频内容生态

  最新发布的《中国短视频发展研究报告(2025)》指出,人工智能重塑了短视频内容生态。作为推动文化创新和突破的重要工具,AIGC已经全面应用到短视频创作、传播的全产业链各个环节,尤其是Seedance 2.0视频生成模型,在自运镜和分运镜、多模态思考、音画同步生成、多镜头叙事等方面实现突破,极大释放了短视频内容生产力和传播力,全面重塑短视频内容生态。

  数据显示,2018年12月—2023年12月,短视频用户规模从6.48亿增长至10.53亿,使用率也从78.20%攀升至96.40%,尽管用户增长率从19.33%下降到4.05%,但整体上仍保持增长态势。进入2024年,短视频用户规模和使用率却经历了“双降”,至2024年12月用户规模为10.40亿,使用率为93.80%,用户增长率为-1.30%。在经历了短暂下降后,2025年短视频用户规模和使用率又迎来新增长,到2025年12月,短视频用户规模达到新高10.74亿,用户使用率为95.40%,用户增长率为3.27%。

  报告指出,全民共创共享趋势日益强化。短视频是互联网条件下新大众文艺的典型形态,创作主体呈现多元化、大众化趋势,外卖员、导游、民间手艺人等纷纷成为短视频创作者,使短视频创作实现了从“为大众”“写大众”到“大众写”“大众享”的转变,全民共创共享成为显著特征。2025年,“苏超”火爆出圈,大量赛场实况“名场面”,点燃了全民共创热情,参与玩梗、接梗、造梗,从而催生了海量二创短视频。“苏超”相关话题在主要短视频平台上播放量超818亿次。数据显示,2023年12月,全网短视频账号总数为15.5亿个,日均短视频更新量近8000万条;到2024年12月,我国短视频创作者账号规模达16.2亿,每日全国上线短视频突破1.3亿条。无论是短视频账号总数和日更新条数都实现大幅增长。同时,短视频平台通过多种形式的变现渠道,提升创作者收入,职业创作者群体随之不断壮大。

  除此之外,短视频产业生态不断优化,广泛赋能千行百业。首先,短视频激活了消费新动能。2025年全国网上零售额达15.97万亿元,比上年增长8.6%,其中短视频在带动网上零售方面发挥了重要作用。其次,短视频也重塑了文旅新模式,将传统旅游决策路径缩短为“观看即向往”的即时行动,直接引导消费行为。此外,短视频还重构了广告新范式。短视频广告深度嵌入移动互联网平台,依托平台技术算法突破传统广告的生产模式、分发机制和时空限制,逐渐重构广告新范式。一方面,在AIGC等技术驱动下,短视频广告内容生产迈向规模化、算法化和精品化,实现广告由传统依赖人工创意生产向与技术协同的人机结合模式转变。另一方面,在平台推荐算法和大数据分析能力加持下,短视频广告的分发机制更具精准性,实现“千人千面”的智能广告分发。(记者 杨赞)

汽车早报|过半经销商去年未完成销量目标 奇瑞宣布战略布局“人造太阳”

工信部发布新一批减免车辆购置税新能源汽车车型目录

工信部发布《减免车辆购置税的新能源汽车车型目录》(第二十八批),小米YU7、小鹏GX、问界M6EV等多款车型在列。

乘联分会:3月1-15日全国乘用车市场零售56.1万辆,同比下降21%

乘联分会公布数据显示,3月1-15日,全国乘用车市场零售56.1万辆,同比去年3月同期下降21%,较上月同期增长2%,今年以来累计零售314万辆,同比下降19%;3月1-15日,全国乘用车厂商批发64.8万辆,同比去年3月同期下降20%,较上月同期增长36%,今年以来累计批发414.1万辆,同比下降12%。

中国汽车流通协会:过半经销商去年未完成销量目标,新车业务亏损加剧

据澎湃新闻,3月18日,中国汽车流通协会发布《2025年全国汽车经销商生存状况调查报告》(下称《调查报告》)并指出,2025年汽车经销商普遍未能完成全年销量目标,价格倒挂持续,新车业务亏损加剧,汽车经销商亏损面增加,盈利面收窄。针对年度销量目标完成率,《调查报告》显示,2025年全年超过一半的经销商未能完成年度销量目标,仅44.3%的经销商完成了年度目标。销量目标完成情况不及2024年。

在盈利能力方面,《调查报告》显示,汽车经销商盈利比例从2024年的39.3%收窄至23.5%,持平比例为20.8%,亏损比例则增加至55.7%。在经销商的毛利构成中,新车、售后和金融保险的毛利贡献分别为-25.5%、80.8%和24.3%。新车销售毛利贡献仍为负数,且亏损持续扩大,主要业务板块收入及利润贡献向非新业务倾斜,售后服务及其他业务毛利贡献增加。由于商业银行消费金融产品的调整,金融保险的毛利贡献出现大幅度下滑。

吉利汽车2025年营收为3452亿元,同比增长25%

3月18日,吉利汽车发布2025年全年业绩报告。2025年吉利汽车总收入为3452亿元,同比增长25%;归母净利润为168.5亿元人民币,同比增长0.2%;每股末期股息为0.50港元。

奇瑞汽车:2025年公司拥有人应占利润同比增加34.6%

3月18日午间,奇瑞汽车在港交所公告,2025年度集团大部分收入来自燃油车销售;集团收入为3002.87亿元,同比增加11.3%;公司拥有人应占利润为190.19亿元,同比增加34.6%。董事会于2026年3月18日举行的会议上建议派付截至2025年12月31日止年度的末期股息,每股人民币0.86元,股息总额为人民币50亿元。

吉利安聪慧:沃尔沃、极星、莲花、Smart品牌也要实现协同发展

3月18日,在吉利汽车控股有限公司业绩发布会上,吉利控股集团CEO安聪慧向界面新闻等媒体表示,吉利控股集团旗下品牌沃尔沃、极星、莲花跑车和Smart等,也将响应《台州宣言》,实现协同发展。安聪慧表示,控股层面已经成立了战略委员会,将对上述品牌确立更清晰的市场定位,产品和市场规划要更加科学和协同,采购体系全面共享,制造资源共享共用,售后网络和渠道协同。

吉利淦家阅:2026年吉利汽车国内销量要做到第一

3月18日,在吉利汽车控股有限公司业绩发布会上,吉利汽车集团CEO淦家阅向界面新闻等媒体表示,2026年,吉利汽车集团国内销量要做到第一。据悉,2026年吉利集团整体销量目标为345万辆,其中燃油车中国星系列销量为120万辆,银河品牌155万辆,极氪和领克品牌合计70万辆。

奇瑞宣布:战略布局“人造太阳”

据第一财经,3月18日,在奇瑞汽车电池之夜上,奇瑞正式宣布战略布局可控核聚变,投身“人造太阳”的研发。

启境GT7将首发十项新技术

3月18日,据启境汽车官方微博,启境首款车型启境GT7将首发十项新一代智能技术,包括华为乾崑最新激光雷达、新一代小艺智能体、华为乾崑赤兔平台、新一代抬显等。

速腾聚创已全面接入英伟达三大核心生态

美国当地时间2026年3月16日至19日,NVIDIA GTC 2026大会在圣何塞举行。界面新闻记者获悉,RoboSense速腾聚创已全面加入NVIDIA Jetson、DRIVE、Omniverse三大生态系统。会上,英伟达宣布Robotaxi Ready平台新增比亚迪、吉利、日产等企业,合作打造L4自动驾驶汽车。该平台已聚合比亚迪、吉利、日产、丰田、Lucid、Uber、小马智行、文远知行、Momenta等RoboSense多位产业客户伙伴。

FF启动高管及员工集体增持计划

3月18日,法拉第未来(NASDAQ: FFAI)宣布推出高管及员工购股计划。根据该计划,部分高管及员工将在递延部分薪酬的基础上参与本次购股安排。根据计划,部分高管及员工将在2026年3月1日至2026年5月31日的三个月期间内递延发放部分基本薪酬,预计税后金额约50万美元,以用于本次购股安排。在完成相关股份回购后,公司拟将回购股份转让给参与此次购股计划的高管及员工,履行相应的递延薪酬安排,具体将依据适用薪酬方案条款执行。

三星电子计划2027年下半年开始为特斯拉生产芯片

3月18日,据报道,三星电子表示,预计将于明年下半年开始在得克萨斯州工厂为特斯拉量产芯片。

Kimi“打破Transformer架构”真相

本周,一篇题为《Attention Residuals》的论文,将Kimi推至全球人工智能领域的聚光灯下。论文作者之一,甚至是一名年仅十七岁的高中生。xAI首席执行官埃隆·马斯克与Google高级人工智能产品经理Shubham Saboo,亦公开发文祝贺。后者更宣称,Kimi正在触及Transformer架构中“长达十年无人触碰的部分”。

一时间,舆论场喧嚣四起。诸如“打破Transformer架构”、“硅谷破防”、“改写行业规则”等标题,迅速占据头条。

本文结论先行:这是一项天才般的构想,一次极其硬核的研究,但其本质并未脱离Transformer架构的基本框架。至于那些耸人听闻的标签,大多出自营销号之手,缺乏事实依据。

事实上,针对残差连接的探索并非孤例。从2022年的DeepNorm到2024年的DenseFormer,优化这一深度神经网络的基石,始终是业界持续发力的方向。Kimi研究团队并非此技术路线的开辟者,却在这条既有路径上,贡献了一个兼具激进性、优雅性与工程潜能的解决方案。

01

深层Transformer的结构性困境

在规模化法则的驱动下,提升模型性能的路径愈发依赖于参数与规模的扩张,神经网络层数的激增成为必然。然而,研究团队注意到一个关键现象:数据在神经网络层间传递时,存在着“PreNorm稀释问题”。PreNorm作为一种归一化技术,因其能有效稳定训练、加速收敛,已成为现代架构的主流选择。

为便于直观理解,不妨将一个大模型比作一条由一百名程序员组成的流水线。每位程序员对应一层神经网络,共同协作完成一个大型软件项目。

在传统的标准残差连接模式下,层与层之间的状态更新遵循如下公式:

当前层的输出,等于上一层输出与该层自身“修改部分”(即变换函数输出)的直接相加。类比而言,每位程序员接收前一位的代码,附上自己的修改后,传递给下一位。

这种简单累加的方式,在实践中会引发连锁问题。从数学视角审视,它将导致两个互为因果的训练困境:

其一,早期信息被稀释掩埋。首层神经网络提取的原始特征——例如token的初始语义——在经历数十层累加后,其相对权重被逐层消解,面目模糊。流水线末端的程序员,无从知晓源头究竟起草了怎样的底层逻辑。模型越深入,对早期低级特征的精确检索与利用便越困难。

其二,数值尺度膨胀与梯度失衡。残差的持续累加,如同项目代码库的无休止扩充。后期加入的程序员若想使自己的改动产生可见影响,不得不添加更大量的代码。对应到网络,深层必须输出数值规模更大的信号,才能在累加中占据一席之地。这一现象在正向传播中或许尚可容忍,但在反向传播中则潜藏危机:浅层梯度可能剧烈震荡,深层梯度却趋于微小,整个网络的梯度分布极度不均,训练极易失稳。

因此,研究的核心命题便凝练为:如何让处于网络最深层的“程序员”,依然能够清晰辨识并调用首位“程序员”所撰写的基础代码?

02

时间维度与深度维度的对偶映射

Kimi研究团队的关键洞见,在于识别出神经网络演进史中,时间序列处理与网络深度构建之间存在的对偶关系。

Transformer并非神经网络的初始形态。约在2018年前,循环神经网络(RNN)主导着序列建模。RNN以时序方式逐词处理文本,将历史信息压缩为单一隐藏状态向后传递。其后果是,后序单元只能接收一个混杂了过往信息的“压缩包”,早期输入极易被遗忘——这一过程,与标准残差连接的信息传递机制惊人地相似。

Transformer则凭借注意力机制,颠覆了这一范式。在自回归解码中,每一位置的词元,都能直接“回望”序列中所有前置词元,并通过加权聚焦关键信息。在时间维度上,注意力机制完美消解了信息压缩与遗忘的难题。

一个自然的类比由此浮现:能否在网络的深度维度上,扬弃残差连接所隐含的“RNN式思维”,转而引入注意力机制?

这正是Kimi论文的核心创新——注意力残差(Attention Residuals, AttnRes)。传统残差累加公式被重塑为一个基于Softmax的注意力加权形式:

新公式不再将浅层输出简单相加,而是为每一层配备一个“伪查询向量”,使其能够动态扫描之前所有层的输出,并为那些包含关键信息的层赋予极高的Softmax权重。无关信息层的权重则被压至近零。

这套内容感知、输入依赖的选择机制,本质上是将Transformer的核心理念横向迁移至残差路径的设计中。残差连接由此从被动的“信息搬运”,转变为主动的“按需检索”,有效规避了深层信息稀释的痼疾。

03

从理论构想到系统级工程

若仅止步于此,注意力残差仍可能囿于实验室的理想图景。真实的大模型工程实践,尤其面对千亿参数、分布式训练的严苛环境,直接套用该机制将引发显存与通信的“爆炸”。

在分布式训练普遍采用激活重算、流水线并行等技术的前提下,若强行实现跨层全连接,深层网络将不得不跨物理GPU节点,获取所有浅层完整的输出张量。随着层数L增加,跨阶段数据传输量与显存占用将以O(Ld)规模急剧膨胀,对算力集群构成灾难性负担。

因此,Kimi团队为解决工程落地而提出的分块注意力残差,展现出极高的实用智慧。

为将理论付诸实践,Kimi团队设计了一套精妙的降维方案:

核心思路是“分块降维”。

回到程序员流水线的比喻:要求末位程序员洞悉每一位前序同事的具体贡献,意味着每位前序程序员都需保留完整的“草稿箱”——这在物理空间上是不可行的。解决方案是,将程序员划分为N个部门。部门内部沿用标准残差,并将多层的输出压缩成一个单一的“块级表征”。部门之间则启用注意力残差机制,只需关注这N个块级表征,而无需追溯每个具体层级的输出。

这一简单而大胆的策略,直接将显存与通信的复杂度从O(Ld)降至O(Nd),为理论落地扫除了最大障碍。

其次,训练阶段的跨阶段缓存设计进一步优化了通信开销。在主流的交错式流水线调度模式下,每个物理GPU常需处理多个计算阶段。团队为此设计了本地缓存机制,确保先前接收到的块级表征驻留于本地显存,从而避免跨节点重复传输。此举大幅压缩了流水线并行的通信峰值,并使跨块通信时间可被计算过程有效掩盖。

最后,推理阶段的双阶段计算与在线Softmax融合,缓解了内存带宽瓶颈。推理时反复读取大量历史块级表征,易导致严重的内存带宽压力。研究团队采用双阶段策略:第一阶段以批处理方式计算跨块注意力,摊销内存读取成本;第二阶段顺序计算块内局部注意力。两阶段结果通过在线Softmax技术无缝合并,并与RMSNorm等算子进行内核融合。

技术细节无需赘述,但结果令人印象深刻:上述复杂的跨层注意机制叠加后,Block AttnRes带来的额外训练开销几乎可以忽略;在典型自回归推理场景中,端到端延迟增幅低于2%。Kimi团队在改写大模型底层网络拓扑的同时,实现了如此程度的优化,堪称工程上的奇迹。

04

实证效果与产业意义

最终,Kimi研究团队将这套架构部署至一个参数规模为48B(激活3B)的小型MoE模型,并使用高达1.4万亿token的数据进行真实环境预训练。

规模化法则曲线显示:在同等算力投入下,应用Block AttnRes的模型始终获得更低的损失值。简单换算,该架构使模型能达到传统基线模型需耗费1.25倍算力方可实现的性能。对于耗资动辄千万美元级的预训练阶段而言,“白嫖”25%的算力增益,蕴含着巨大的商业价值。

下游能力测试中,需要多步骤逻辑推理的任务获益最为显著:

GPQA-Diamond提升7.5%,Math提升3.6%,HumanEval提升3.1%。这一结果在逻辑上高度自洽:数学推导与代码生成皆要求模型具备长时间推理与信息保持能力,AttnRes的深度检索机制恰好契合了这种“不忘初衷”的内在需求。

月之暗面创始人杨植麟在2026年英伟达GTC大会上的公开演讲,也从侧面印证了这套架构的价值:“要推动大模型智能上限持续突破,必须对优化器、注意力机制和残差连接等底层基石进行重构。”

当然,这项技术距离真正颠覆Transformer架构或改写行业规则,尚有显著距离。核心工程代码尚未完全开源,公开仓库中仅提供伪代码级别的演示。同时,论文中亮眼的实验结果,全部出自月之暗面自有的模型结构与私有数据。注意力残差能否在其他主流大模型上复现出稳定且显著的收益,仍有待第三方独立验证。

客观而言,在深度学习领域,对底层机制进行启发式修改的尝试并不鲜见。但一篇论文能获得马斯克的“光速”点赞,本身已说明其分量。

最准确的论断或许是:这是一个兼顾了学术美学与工程实用性、值得全行业深入跟踪的残差机制新设计。它并非推翻Transformer的神话,而是为这座大厦添上了一块关键的砖石。

而月之暗面借此向世界展示:在底层架构创新的“深水区”,中国AI企业同样有能力交出极具技术含量、堪称世界级水准的答卷。