戴尔科技CEO:AI服务器业务今年将扩张至500亿美元,需求保持强劲

财联社4月8日讯(编辑 牛占林)戴尔科技创始人、董事长兼CEO迈克尔·戴尔最新表示,公司将人工智能(AI)视为计算需求的重大拐点,其AI服务器业务正快速扩张,且广泛的客户群体仍处于应用的早期阶段。

在当地时间周二美国银行举办的行业活动上,戴尔指出,AI代表着从“计算与运算”向“思考与智能”的转变。他认为,在全球经济体量庞大的背景下,即便生产率仅实现温和提升,也足以支撑大规模投资。

AI收入增长与需求信号

戴尔表示,其AI服务器业务规模迅速扩大,从20亿美元增长至100亿美元再到250亿美元,预计今年将达到500亿美元。

他补充称,目前已有超过4000家客户在使用所谓的“AI工厂”,并认为行业仍处于应用S曲线的"陡峭上升阶段"。

针对市场对超大规模云服务商资本开支可持续性的担忧,戴尔强调需求并未放缓:“肯定没有减速。”他透露,公司过去一年获得了“640亿美元订单”。

戴尔还强调,公司并未采取类似超大规模服务商的重资本模式,而是保持“轻资产运营”,在获得真实订单之前不会进行供应承诺。他同时提到“首个Token生成时间”的重要性,强调客户希望基础设施部署后能够立即投入使用。

谈及AI基础设施供应链紧张问题时,戴尔表示,这种波动反而是公司的优势:“我们其实很喜欢供应链紧张的环境,这对我们来说就像‘超级碗’。”

在存储器方面,他提出了所谓“25×25”的结构逻辑:单个加速器所需高带宽内存增加,同时加速器数量也在增长。两项因素相乘,全体内存需求的增幅将达到625倍。他指出,英伟达Nvidia H100从80GB提升到当前的288GB,未来甚至可能达到1TB或2TB,这意味着总体内存需求将大幅攀升。

他补充称,新建一座内存工厂大约需要四年时间,并认为行业2023年的低迷状况使供应商对投资持谨慎态度。

在应对组件价格上涨对利润率的冲击方面,戴尔表示公司正迅速调整价格:“我们正在提价以保护毛利率。”他还强调,对客户而言,可获得性有时比价格更重要:“内存涨价固然不好,但买不到更糟。”

戴尔也承认价格上涨可能影响客户行为:一方面存在“提前采购”,另一方面也可能有客户延迟采购等待价格回落。但他认为,这更多是需求递延,而非需求消失。

他指出,全球约15亿台PC中,有约5亿台已使用超过4年;在服务器领域,戴尔的大部分存量设备仍为14代或更旧型号,而当前产品已升级至17代。

AI基础设施竞争优势

戴尔将公司在AI基础设施领域的增长归因于重复订单、工程执行能力和部署能力。他提到公司在计算、存储和网络方面的综合能力,包括“Lightning File System”、“PowerScale”和“ObjectScale”等产品。

戴尔强调现场部署的重要性,表示公司通过“大规模工程团队”进行安装部署,并从中获取收入。

他认为,将复杂系统稳定运行是关键竞争力之一,例如戴尔可以“像时钟一样精确地”在一周内部署数百个机架,并在24至36小时内投入运行。

戴尔表示,地缘政治紧张正在推动“主权AI”需求增长,即各国希望在本国境内部署AI能力并使用本地数据。他指出,公司在欧洲拥有大量工厂,并提到与Palantir等企业的合作。

戴尔将这一机会描述为在主要经济体中普遍存在,称"GDP排名前25位的任何国家"都有某种主权AI项目在推进,无论是通过政府、电信运营商还是关联实体。

荣耀宣布与张雪机车开展联名合作,成为其WSBK首席战略合作品牌

凤凰网科技讯 4月8日,荣耀全球首席营销官关海涛宣布与张雪机车开展联名合作,荣耀成为张雪机车在世界超级摩托车锦标赛(WSBK)的首席战略合作品牌,共同推动中国智造品牌走向世界。

今日下午,张雪机车创始人张雪在抖音直播间提及期待获赠荣耀手机。张雪在直播中对荣耀表达感谢,称“特别感谢荣耀手机对张雪机车赛事的鼎力支持,非常感谢”。

谷歌CEO:2027将是AI重塑生产方式关键拐点

快科技4月8日消息,据媒体报道,谷歌及Alphabet首席执行官桑达尔·皮查伊近日在一档节目中,就公司手握1750亿美元却买不到足够存储芯片的困境,以及太空数据中心等下一个“SpaceX级别”押注的细节展开了交流。

皮查伊表示,受制于晶圆开工量、内存供应及基础设施建设速度,谷歌即便拥有千亿美元级的资本支出计划,短期内仍难以完全落地。

他预计,2027年将成为人工智能改变工作方式的重要拐点。

在长期技术布局方面,谷歌正同步推进量子计算、太空数据中心、机器人、无人机配送等多个前沿方向。

皮查伊透露,公司已处于思考太空数据中心的最早期阶段,量子计算也是长期重点推进的领域之一。

谈及AI初创公司,皮查伊指出,近两年新设立的初创企业明显具备更加“AI原生”的优势,而像谷歌这样的成熟公司则需要经历再培训和组织转型等过程。

谷歌CEO:2027将是AI重塑生产方式关键拐点

从算力竞赛到低碳博弈:数据中心如何应对“隐含碳”挑战?

文 | 舒意雯

2026年初,全球科技巨头相继披露四季度财报,四家主要云厂商(谷歌、亚马逊、Meta、微软)的资本开支同比增长50%以上。据分析师预测,为加速人工智能基建布局,这四家云厂商2026年全年的资本开支预计高达6500亿美元。

在全球算力需求指数级爆发的当下,数据中心的建设交付速度已经成为企业“圈地运动”的核心竞争力之一。长期以来,“中国速度”、“基建狂魔”是中国企业出海的名片。为了大幅缩短交付周期,一种被称为“预制模块化”(Prefabricated Modular)的建设模式,正迅速成为中国数据中心企业出海的核心竞争力。

这种模式将数据中心拆解成了多个标准化的功能舱,在工厂预先集成调试后被海运至项目现场,像搭乐高一样快速组装,可将工期从传统模式的近两年大幅压缩至6-10个月。

它不仅降低了海外高昂的人工成本和长周期的不确定性,更能灵活部署和扩容,精准匹配算力需求的变化。一时间,预制模块化结构数据中心备受出海企业青睐。

然而,在其“高效”、“绿色”等标签的背后,一个长期被忽视的阴影却在浮现。预制模块化虽然在施工现场减少了建筑垃圾和噪音污染,但其高度依赖的钢铁等建材所产生的巨额 “隐含碳”占据了数据中心全生命周期碳账单的不小比例,正在成为被严重低估的绿色短板。

绿色”航行下的暗礁:隐含碳

隐含碳是指建筑材料从生产、运输、组装到施工全过程中所产生的碳排放,它涵盖了从地基、结构框架系统到机电管道安装的每一个环节。

对于主体结构高度依赖钢材的数据中心而言,这意味着,它在正式通电运行之前,就因使用海量钢材而背负了巨大“碳债”。这笔“债务”一旦产生,便被物理性地锁死在钢筋骨架之中,无论后期运营时如何节能省电,这部分既定的排放都无法被抹去。

与普通商用建筑相比,数据中心的物理结构特性使其隐含碳含量不容小觑。为了承载密集且沉重的IT机柜、冷却系统以及备用电源设施,数据中心的楼面承重设计通常是办公用楼的2倍以上。这直接导致了单位面积内钢材、混凝土等重型建筑材料的消耗量呈指数级上升。

同时,为了保证预制模块在长途海陆运输、吊装过程中具备极强的结构稳定性和承重能力,它的结构设计极其紧凑,拼接后的柱网密度显著增加,且楼板、外墙、围护等均高度依赖钢结构骨架和钢板进行加固。而钢材的增加,势必意味着隐含碳的增加。

随着全球云巨头纷纷设立了全供应链(范围三)的减排目标,未来国内和国际的合规及评估标准很有可能逐渐强制企业的供应链碳排放披露。在此背景下,前瞻性地削减隐含碳,已成为数据中心应对未来合规挑战、构建核心竞争力的必然选择。

出海热门地的绿色“高门槛”

东南亚是中国科技巨头和数据中心出海的热门目的地。而已有亚马逊云、谷歌云、微软等国际云巨头布局的马来西亚,更是因其地理和政策优势成为出海焦点。马来西亚的工业电价仅为新加坡的三分之一,且拥有广袤的可开发土地,这使其成为大规模 AI 算力集群的最佳选址之一。

近年来,马来西亚政府明确将数据中心视为国家数字经济支柱之一。2025年,亚太数据中心协会(APDCA)和毕马威发布报告预测,到2030年,马来西亚的数据中心产业有望支撑约340亿美元的经济产出,约占全国总和的4.1%。

在政策层面,马来西亚政府正通过“组合拳”将该国打造成亚洲数字经济中心。2025年,柔佛-新加坡特区(S-SEZ)正式运行,特区内新成立的人工智能业务公司可享受10-15年的低税率(5%),如是现有公司设立新业务(非拓展现有业务),可获得高达100% 的投资税收津贴及审批“快车道”。诸如此类的综合优势吸引了众多中国数据中心企业。

值得注意的是,中企在马来西亚的扩张,并非传统建筑模式的简单复制,而是“中国速度”与“预制模块化”的深度结合。中国企业万国数据和秦淮数据在马来西亚柔佛州的项目都采用了预制模块化结构,已成为中企出海马来西亚数据中心建设的主流趋势。

中企出海基建爆发性增长的同时,当地的可持续评估也在全面细化。2026年2月1日,马来西亚绿色建筑指数(GBI)针对新建数据中心发布的新版评分参考指南(GBI DC Tool 2.04,下称参考指南)正式生效,在所有注册的数据中心项目中开始实施。参考指南通过“能源效率”、“材料与资源”、“用水效率”等六大板块下的多项指标对数据中心进行评分。

在“材料与资源”板块,其下属的指标之一为“隐含碳的申报与减少”,该指标明确定义并量化了不同建筑材料的 “隐含碳系数默认值”(参见下图表格)。

表格中包括了不同建筑材料的碳排放基准,单位为每千克材料产生的千克二氧化碳当量:其中钢筋(Reinforcement Steel Bar)的默认值为680,预制模块化系统镀锌钢(Prefabricated Modular System Galvanised Steel)的默认值则为3030。

在评分过程中,如果项目方使用的建筑材料拥有马来西亚标准与工业研究院(SIRIM)或同等权威机构认可的减碳认证,且隐含碳数值低于所对应的默认值,可得1分;如果该建筑材料隐含碳数值比默认值低至少25%,可再得1分。

最终,各指标得分相加,总分在50分以上的数据中心项目可获得绿色认证,认证级别从最低的“认证级”到最高的“铂金级”不等。成功认证的数据中心项目可以在向马来西亚投资发展局申请绿色税收优惠时,提交该认证作为支持文件。

低碳排放钢:结构减碳的核心变量

作为中国数据中心出海热门地,马来西亚将隐含碳列入可持续发展评估框架,无疑给全球投资者一个明确信号:绿色门槛越来越高了。在此情形下,数据中心——尤其是预制模块化数据中心——必须正视材料端的脱碳。而低碳排放钢,便成为了削减碳排、通往合规的必经之路。

所谓低碳排放钢,是指通过电弧炉短流程或氢能替代等工艺,使生产过程中的碳排放远低于传统高炉炼制的钢铁。以纯废钢短流程电炉炼钢为例,其单吨碳排放较传统工艺可降低约1.5吨5

我们可以通过一个具体的项目来算一笔账。研究表明,使用传统高炉-转炉长流程生产的钢材,每吨的二氧化碳排放强度约为2吨。以国内某建筑面积6.2万平方米的钢结构主体数据中心为例,其总耗钢量约为7000吨。

按照“总耗钢量 × 单位钢材碳排放强度”来粗略计算,如果该项目全部使用长流程生产的钢材,仅钢材一项,就使该项目在落成之初产生了约1.4万吨隐含碳,等于约8500辆私家车一年的碳排放量。如果将这7000吨钢材全部替换成低碳排放钢,以全废钢电炉钢产品为例,能立刻降低约1万1千吨碳排放,降碳效果显著。

目前,国际上已有数据中心在建造阶段选择低碳排放钢。比如国际数据中心基建公司Stack Infrastructure就在其北弗吉尼亚州的项目进行试点,与钢材供应商SteelFab合作,采用了使用废钢和电弧炉工艺生产的低碳排放钢材。这项举措使其应用的宽翼缘钢材实现了100%的隐含碳减排,并使整个结构钢系统的隐含碳排放量减少了83%。

以上尚且是非预制模块化数据中心的案例。对预制模块化数据中心而言,应用低碳排放钢的边际效益更高。正因为钢材在预制模块化结构中占比大且排放强度高,它成为了数据中心隐含碳构成中“最敏感”的变量:只要将这部分钢材替换为低碳排放钢,整个建筑的隐含碳含量就会断崖式下降。

是“中国速度”,也是“低碳通行证”

不仅是马来西亚在完善隐含碳相关的绿色标准,全球房地产与基础设施领域ESG评级的行业标准制定者、知名评级机构GRESB也将于2026年上半年推出为数据中心量身定制的评估基准。

据内部消息,新标准将有专门的子分类来评估隐含碳相关数据;GRESB分析师指出,市场愈发关注数据中心资产全生命周期中的隐含碳排放影响7。从马来西亚的政策红利到全球行业基准,信号已非常明确:未来的海外扩张,不仅是算力与成本的竞赛,更是以低碳排放钢为代表的低碳供应链整合能力的博弈。

随着数据中心建设的全球化,对于中国企业来说,“走出去,走得快”只是第一步。面对愈发严苛的国际要求,企业必须将减排视角前移,思考如何用更“轻”的碳账单,带来更“绿”的表现。

钢铁作为数据中心建设的核心材料,其隐含碳排放量决定了整体项目的环境底色。在预制模块化钢结构中应用低碳排放钢,不仅是减碳技术最优解,也是保证出海畅通的通行证。

如若将预制模块化设计和低碳排放钢相结合,既能使中国制造数据中心保持“中国速度”的优势,又能凭借“低碳名片”获得政策青睐,无疑会成为极具竞争力的行业标杆。

(本文经作者授权发布,仅代表作者观点。作者舒意雯绿色和平东亚分部气候与能源项目主任)

罗福莉再发声,Agent时代模型订阅制凉了?

“我会建议所有LLM公司,在搞清楚‘coding plan怎么定价不亏钱’之前,不要盲目打价格战。”近日,小米集团MiMo负责人罗福莉在X平台发文,谈及针对眼下的Token定价问题发表看法。

让罗福莉下场发声的由头很简单:Anthropic在近期调整了产品策略,不再允许用Claude订阅运行OpenClaw。

本月4日起,Claude的Pro和Max订阅不再覆盖OpenClaw等第三方框架,用户如果还要继续使用这些智能体,只能改为通过API按量付费或购买额外使用额度。

Claude官方解释称:这类调用对系统造成了“远超预期的压力”。

而几乎在同一时间,MiMo也推出了自家的Token Plan。

“Claude Code的订阅机制在计算资源分配上设计得非常漂亮。但我认为它并不赚钱甚至可能亏损,除非API利润率高出10到20倍。”在文中,罗福莉这样分析道。

除了呼吁不打价格战,罗福莉的另一个核心观点是:长期来看,Agent时代的模型正在迎接一个“被迫进化”的过程,优化上下文管理、复用已有计算结果、减少无效token消耗是接下来的迭代方向。

在她看来,Anthropic的这一步,正在推动整个生态向这个方向:让高效的Agent和高效的模型协同进化。

不过,面对Anthropic这一策略调整,也有人选择了不买账。

OpenClaw作者Peter Steinberger在X上直接开喷,他表示,曾尝试与Anthropic沟通,但最终只争取到一周的缓冲时间。

OpenClaw的广大用户群体无疑是这一轮调整的最大受害者,很多用户订阅Claude,本来就是为了运行OpenClaw,而现在,这条路径被直接切断。

当原本被认为“高昂价格”的200美元的订阅,突然间能跑出几千美元的算力消耗,无疑是对厂商定价策略的一次考验。

另一方面,这并非是一句简单的“Token调用变多了”就能解释的现象。Agent正在重塑Token的调用逻辑,而背后这笔账,算起来还真有点复杂。

01

600倍浮动下,模型该怎么定价

如果要用一个词来解释这场争议的核心,那就是——波动,不可预测的波动。

南洋理工大学等团队在近期发布的研究《Beyond Max Tokens》显示,在多轮工具调用的智能体场景中,同一个任务的计算消耗,可能出现最高658倍的差异。

一条看起来类似的任务,有的几千个计算单元就结束,有的则被拉到数万甚至更高。这意味着,模型的成本不只是变得更高,而是不可预测。

“我仔细观察过OpenClaw的上下文管理——做得不怎么样。”

解构罗福莉在X上的发言,你能发现和南洋理工这份研究的契合之处。罗福莉发现,在OpenClaw的一个用户请求里,往往会发起多轮低价值的工具调用,带来了巨大的模型调用量的浪费。

“真实成本很可能是订阅价格的几十倍。这不是差距——这是一个‘深坑’。”

罗福莉所说“深坑”,问题出在OpenClaw这类智能体的运行方式:一个任务往往需要多轮尝试和回退,很多计算并不会直接产生结果,但依然消耗资源。

但这个消耗资源的具体量级很难测算,这也是Claude选择封禁掉订阅接入Agent的渠道,而不是选择新设立一个“合理”定价的订阅套餐。

总而言之,随着Agent生态加速演变,Token用量的“合理”范围,压根无法准确预估。

“我们一直在努力满足不断增长的Claude需求,但我们的订阅服务并非为这些第三方工具的使用模式而设计的。”谈及这一次业务调整,Claude Code负责人Boris Cherny此前在X上这样写道。

他表示:“Token是一种我们谨慎管理的资源,我们将优先考虑使用我们产品和API的客户。”

对于这一调整带来的影响,有业内分析称之为“自助餐已经结束了”。OpenClaw开启了Agent的大航海时代,但也推翻了此前的模型定价门槛。一个OpenClaw代理运行一天,就可能消耗1000到5000美元的API成本。

“Anthropic正在承担每个通过第三方接口用户所产生的这部分差价,”增长营销专家Aakash Gupta在X上写道。“这就是一家公司眼睁睁看着利润实时蒸发的速度。”

成本完全失控,这是Anthropic不得不立刻做出反应的原因。

在Chatbot形态里,订阅制之所以能延续,是因为可以根据历史数据,统计出一个代表大部分用户的用量均值:轻度用户覆盖重度用户,整体成本可以被摊平。

但在Agent场景中,这种结构被打破。重度使用不再是个例,而是由产品形态本身决定的结果。只要模型开始“执行任务”,就必然会出现长链路调用、上下文膨胀和重复尝试。

类似的变化,其实已经在其他产品中出现。此前当Cursor在调整定价时,就从“按请求次数计费”转向“按实际Token成本折算的额度”,原因同样是长链路任务带来的成本差异,已经无法用固定配额衡量。

不过,用Token作为唯一定价、实算实销的方式虽然看起来很科学,但是也带来了新的问题,Agent链路下Token用量不确定性依然存在,如果完全用实际Token用量核算,相当于把这种不确定性转嫁给了用户。

因此,当Anthropic发表声明后,用户不买账的声音也此起彼伏。

X上有许多用户表示,切换到API计费跑OpenClaw成本会严重攀升,使得他们不得不考虑其他途径。

而已经被OpenAI“收编”的OpenClaw创始人Steinberger,在X上“开喷”也带了一丝叫板的意味。

有外媒分析,OpenAI似乎正在将自己定位为一个更“易于上手”的替代方案,并可能利用这一契机,从不满的Claude高级用户那里获取客户。

知名媒体Axios此前在报道中披露,曾有一位行业资深人士表示,“Anthropic强调训练和运行模型的效率,而OpenAI的心态是,CEO奥特曼总能筹集到更多资金来支持计算规模的扩展。”

这场争论的结局尚未可知,但毫无疑问的是,在2026年的AI领域,第三方自动化获得补贴、无限计算能力的时代已经结束。

不管采用哪种计费逻辑,更谨慎、更细化的Token收费模式已在路上。

02

配额不是唯一出路,但已是眼下最优解

进一步讨论定价问题前,有必要先解释下目前模型产品的主流计费模式。

目前主流模型厂商大致形成“三层计费结构”。第一层是订阅制,面向个人用户,如ChatGPT Plus、Claude Pro、Gemini Advanced,按月收费,提供更强模型与更高调用上限,但通常伴随速率与用量限制。

第二层是API按量计费,以OpenAI、Anthropic、Google以及国内火山引擎、阿里云、智谱等公司,按token或等价计算量收费,是开发者与企业的核心结算方式。

在此之上,各家又推出Coding Plan/Token Plan等套餐,作为订阅与按量之间的过渡形态:用户按月付费获得一定额度与优先权,但超额仍需按量付费,并伴随公平使用与限流机制。

在Agent场景中,这一分层尤为关键,自动化调用大都只支持API按量计费,订阅与套餐难以覆盖高强度、多轮调用的算力消耗。而大部分“订阅模式”只针对一般用户的Chatbot和内嵌Agent功能。

随着Anthropic针对Openclaw切换计费方式,其他厂商也相继做出反应,是更直接的——涨价。

过去几周时间里,一轮集中调价出现在国内AI云厂商中。

腾讯云此前宣布,自上月13日起结束部分模型的免费公测,并转为正式收费,同时对混元系列模型进行大幅调价,部分价格涨幅超过400%。

随后,阿里和百度方面也发布公告,本月月中开始上调AI算力和存储价格,整体涨幅在5%—30%区间。

而在几天前智谱的财报电话会议上,CEO张鹏披露,2026年一季度接口调用价格提升了83%,但调用量仍然增长400%。

接连几家AI云厂商涨价,说明了一件事:模型需求的增长来得太快,甚至厂商的基建层都倍感压力。

这一点在罗福莉的发文中也有体现:“更宏观地看:全球的算力供给,跟不上agent带来的token需求增长。”真正的出路,不是更便宜的token,而是模型和Agent的‘协同进化’。”

只是,在更高效的模型+Agent架构面世之前,涨价或者限制订阅,并不能解决这套计费逻辑中的核心矛盾。

从用户视角看,购买的是“任务完成”;但从模型厂商的视角,计量的是“计算过程”。

这两者之间,目前存在着明显的错位。走订阅,厂商要承担Token调用不稳定的风险;走API,这个风险又来到了用户身上。

这也是为什么“订阅+配额+API”的组合,同时出现在了各大厂商的落地方案中。

在Harness/Coding场景下,各类plan本质上是一种用户与模型厂商之间的相互妥协:厂商通过Coding/Token Plan套餐锁定一部分额度,换取用户侧的价格确定性,同时用限流和规则控制风险。

但在OpenClaw这类更不受控的agent场景中,调用强度和路径都难以约束,这种“妥协”很难成立,厂商们更多选择 API按量计费。

订阅负责轻量使用,配额限制极端消耗,超额部分按量计费。本质上,这是一种对不确定性的缓冲机制。

不过,Token计价也并不是唯一的解法,行业内已经在探索一些“另类”的模型收费模式。

一类是按任务收费。比如Anthropic在Claude Code中推出的Code Review功能,直接按一次PR审查计价,单次review平均成本在15–25美元,并随代码规模和复杂度浮动。

二是按结果收费,已经在企业侧落地,比如智能客服、RPA厂商按“问题解决”或“流程完成”计价;还有一种是按时间收费,比如xAI的语音agent按运行时长计费,约0.05美元/分钟)。

几天前,在火山引擎武汉站巡展活动中,当字母AI问及“面对模型调用激增、Token消耗存在不确定性的现状,模型厂商该如何优化定价策略?”时,火山引擎总裁谭待这样回应:

“目前OpenClaw这类通用型平台适合按Token收费,因为其应用场景广泛,无法统一定义效果和成本。”谭待同时表示,未来可能会孵化出垂直领域的智能体,如客服智能体,就可以按回答问题的数量收费。“类似线下找客服的模式,按效果付费。”

“(Anthropic的这一步)大概率是一件好事。Agent时代不属于消耗最多算力的人,而属于最会使用算力的人。”在那篇发文最后,罗福莉这样总结道。

显然,围绕Token收费的争论还将持续下去,这一争论将取决于未来模型-Agent在效率层面的迭代情况。

我们可以确定的是,过去一度被压到几厘钱每Token的单价,在这个调用量激增、链路无限延伸的Agent爆发周期,已经变成了每一个用户都无法忽视的成本因素。

Agent大航海时代,Token收费这笔账,值得每一个厂商认真盘一盘。

内蒙古:建设全国领先的绿色智能算力保障基地,持续提升智能算力规模

内蒙古自治区人民政府印发《内蒙古自治区“人工智能+”行动实施方案(2026—2028年)》,方案提出,绿色算力稳定供给。建设全国领先的绿色智能算力保障基地,持续提升智能算力规模。开展算力一体化交易调度,实现异构算力资源的统一管理和智能调配,推动算力普惠易用。

三星拿下苹果折叠屏独家三年合同:首批供货300万片 京东方暂未入围

快科技4月8日消息,据媒体报道,苹果公司已与三星显示签署为期三年的独家可折叠OLED供应协议。

在此期间,苹果将不会使用其他任何显示器制造商生产的可折叠面板。

消息人士称,这份三年独家合同由三星显示率先提出。苹果目前除三星显示之外没有其他备选供应商,因此只能接受这一独家条件。

京东方虽向华为等企业供应折叠屏面板,但此次无缘为苹果提供折叠屏;LG显示则暂无手机折叠屏面板的供货实绩。

三星显示计划于2026年第二季度启动苹果折叠屏OLED面板量产。

2026年首批供应量约为300万片,远低于市场此前约1000万片的预期。

一位业内人士表示:“以300万片起步,意在观察市场反应后再调整数量。”

供应给苹果的折叠屏OLED面板将采用封装式彩色滤光片(CoE)技术,该技术无需偏光片,可直接在封装层上形成彩色滤光片。

该面板所使用的OLED材料与iPhone 17 Pro Max使用的M14材料相同,而非采用全新材料,意在确保稳定性并降低成本。

关于苹果折叠屏手机的发布时间,目前存在两种不同预测。

4月7日,《日经亚洲》报道称苹果折叠屏手机在工程测试阶段遭遇困难,原定于今年下半年的发布时间可能推迟数月。

同日,还有媒体报道称苹果仍计划在9月与iPhone 18系列同期或稍后发布。

行业人士表示:“无论整机组装环节是否存在延迟,三星显示为苹果折叠屏手机生产OLED面板的工作都将按原计划于第二季度启动。”

三星拿下苹果折叠屏独家三年合同:首批供货300万片 京东方暂未入围

DeepSeek连夜改页面,免费的AI用不长了

摘要:

算力短缺,已经是AI赛道“房间里的大象”。

凤凰网科技 出品

作者|路春锋

编辑|董雨晴

4月8日凌晨,DeepSeek悄悄上线了一种新的分层模式界面:在网页版/App中出现了“快速模式(Fast)”和“专家模式(Expert)”两个入口,同时还有一个带图标的“视觉模式(Vision)”选项正在灰度测试。

图|Deepseek网页版截图

新的功能分工十分明确:快速模式面向日常对话和低延迟响应;专家模式针对复杂推理和深度任务,可能触发更长推理时间但响应慢;而视觉模式则开启了图像输入等多模态能力,不过凤凰网科技检索发现,被灰度到视觉模式的人非常之少。

外界普遍认为,这是为即将发布的新一代V4模型做的功能和体验预热。但相比发新模型,当前的分级制度或许更值得关注,作为一种“按需调用算力”的调度机制,就是将简单任务交由低成本路径处理,仅在必要时启用高算力推理,从而减少无效Token消耗,实现整体成本的结构性下降。

大模型公司的算力焦虑

大概在一周前,Anthropic宣布自4月5日起,旗下大模型Claude的订阅服务将不再覆盖包括龙虾在内的第三方集成工具。用户如想继续使用该模型,只能通过与订阅服务分开计费的按需付费方案,并为此支付额外费用。

背后的逻辑非常好理解,随着黄仁勋在GTC大会上高呼Token经济学。全球科技大厂一时间把token消耗量变成了考核标准,更有国内的互联网大厂拉了月度token消耗排行,唯token消耗论甚嚣尘上。

据Anthropic表述,订阅制的定价模型原本是基于“个人用户正常使用强度”设计的,而OpenClaw这类自动化代理工具的使用强度远超预期——有重度用户每月仅支付200美元订阅费,却消耗了价值5000美元的算力资源,给Anthropic带来了巨大的成本压力。

小米AI负责人、前DeepSeek核心成员罗福莉对这个理念进行了拆解,认为Anthropic终于走出了天坑。其在社交平台X上发布长文,认为全球算力供给已经跟不上Agent创造的token需求增速。真正的出路不是更便宜的token,而是“更高token效率的Agent框架”叠加“更强大高效的模型”之间的协同进化。

据行业数据显示,截至2026年3月,中国AI大模型日均Token调用量已突破140万亿,较2024年初增长超千倍。

罗福莉算了一笔账:按API定价折算,这类框架的真实成本大概是订阅价格的数十倍。她觉得这一差距“不是缺口,而是天坑”。

更值得国内AI公司注意的是,Anthropic在4月7日宣布,其年化收入(ARR)突破300亿美元,正式反超OpenAI的250亿美元。

从2025年底的90亿到如今300亿,其仅用三个多月就实现了233%的爆发式增长,即便如此,Anthropic仍在算一笔精细的账。

在罗福莉看来,Anthropic封杀“龙虾”的真正价值在于:让效率低下的成本真实可见,从而倒逼整个生态走向工程自律。短期阵痛不是坏事,它会推动框架开发者认真改进上下文管理、最大化prompt缓存命中率、削减无效token消耗。

发新模型眼下可能没那么重要

DeepSeek R1最初的惊艳,原本也是架构的创新,极大的实现了token的节约。当时,低价token的源头虽然是DeepSeek,但其本意从来不是为了价格战,只是后来者把这种创新完成了价格战游戏。

2025年初的爆红,也让DeepSeek几度面临容量不足的窘迫,时常宕机。

在第一拨大规模用户涌入后,曾有DeepSeek内部人士告诉凤凰网科技,因为当时资源不够,所以用户看起来被限制了使用次数,后来内部通过优化方法,重新分配资源。

但这种内部架构的创新已经难以满足当前的token调用需求。

国金证券在研报中指出,算力供需正在发出关键信号——需求端以指数级膨胀,供给端却受限于芯片出口管制与成本约束,难以同步扩张。

免费模式,成了这场危机的加速器。大模型运营成本极高,免费模式让平台算力扩容始终滞后于用户增长。

在2026年开年以来,DeepSeek已经上演了至少7次大规模服务中断。3月29日晚至30日上午,平台再度突发全局崩溃,网页端与APP端同时无法使用,宕机时间持续约12小时,直至次日9时13分才恢复正常。

或许是压力之下,DeepSeek在4月8日低调更新了对话界面,在输入框上方新增了“快速模式”和“专家模式”选项。在行业人士看来,分层设计既可以通过算力分流缓解峰值压力,也能为后续搭建付费体系、限额限流铺路。

不久前,OpenAI宣布下线Sora,将有限的算力资源重新聚焦于核心服务,与DeepSeek开启分层、Anthropic的高峰限流措施共同揭示了一个现实:需求增速已远超基础设施的扩张能力。

AI赛道的“房间里的大象”

从DeepSeek的免费模式难以为继,到Anthropic的封杀令,再到罗福莉的价格战警告,这些看似独立的事件共同指向同一个结构性矛盾:AI赛道的token用量正在以指数级速度膨胀。

海外的AI数据中心大手笔抢购存储芯片,再向华尔街开出账单,犹如一场没有尽头的赌注游戏。

实际上,不止是芯片,电力危机也在叠加:AI算力耗电占全社会用电量增速的46%,远超整体6.1%的增长水平,电力弹性不足成为硬约束。

在这种背景下,行业正在经历一场从“免费烧钱换用户”到“算力精细化运营”的范式切换。阿里云、腾讯云早前已启动算力涨价,最高涨幅达34%。但说起来是涨价,实际也只不过是把之前价格战时期的优惠给抹掉了,恢复了正常定价。

4月8日,在智谱发布旗舰开源模型GLM-5.1之际,再度提价10%,此前其已经进行过两次提价。

如果说过去两年,大模型行业的关键词是“规模”和“速度”,那么现在,关键词已经悄然变成了两个字:成本。

即便是像OpenAI和Anthropic这样的海外明星企业,目前都还处于高投入阶段,算力、人才、基础设施等等开支巨大。在持续依赖融资的同时,它们都必须回答一个现实问题:这门生意什么时候能自我造血?

于是,行业开始出现一个明显转向:当AI开始赚钱,第一步不是赚更多,而是少亏一点。

以OpenAI为代表的一类玩家,选择的是更激进的路线:产品快速迭代、能力优先、生态开放,同时通过持续融资维持扩张节奏;而以Anthropic为代表的另一类,则明显更克制,把重点放在成本结构、稳定性和企业服务上,通过工程优化来提升效率。

两者的差异,可以简单理解为:一个是“先做出来再说”,一个是“先算清楚再做”。

这种变化,对普通用户其实也会产生直接影响。

首先,API价格未必会像很多人预期的那样持续大幅下降。虽然单位价格在降低,但成本控制的压力并没有消失,企业更可能通过优化结构,而不是无限降价来消化成本。

其次,免费额度和补贴可能逐步收紧。过去依赖“烧钱换增长”的阶段正在结束,当每一个Token都需要被精确计量时,慷慨的免费策略本身就变得不可持续。

再次,在体验层面,用户也可能感受到变化:模型回复会更克制、更精简;长文本、复杂推理或高频调用,可能被更严格地限制或分层定价。你看到的“更短回答”,背后往往不是模型变“懒”,而是系统在主动做成本优化。

从某种意义上说,Token被省下来的那一刻,成本并没有消失,而是被重新分配——在模型厂商、企业客户与终端用户之间流动。

说到底,AI正在完成一次从“实验品”到“商品”的转变。大模型从来不是纯技术问题,而是一门重资产生意。当增长神话退去,算账就成为最核心、最现实、也最无法回避的问题。

这,才是“抠Token”背后真正的行业逻辑。

戴尔CEO预警:2028年AI内存需求将激增625倍 供应短缺难解

快科技4月8日消息,据报道,近日,戴尔科技集团CEO迈克尔・戴尔在公开活动中表示,预计2028年AI加速器领域的总内存需求将较2023年激增625倍。

而全球AI内存市场的供应短缺问题短期内难以得到缓解,供需失衡的格局将持续存在。

这一 625倍的需求增长由两大核心因素叠加形成,英伟达2023年推出的H100加速器搭载80GB内存,到2028年单颗AI加速器的内存容量将提升2TB,实现25倍增长。

同时,全球数据中心内AI加速器的部署规模也将在这五年间扩大25倍,双重增量推动整体内存需求呈指数级攀升。

当前AI内存供应端的短板已显现,2023年全球存储行业处于周期低点,三大内存原厂因业绩亏损暂停扩产计划,直接导致后续产能储备不足。

戴尔CEO预警:2028年AI内存需求将激增625倍 供应短缺难解

而新建一座DRAM晶圆厂从规划到落地量产需耗时约4年,且头部内存企业现阶段扩产态度仍较为谨慎,前端制程产能提升速度有限,难以匹配AI内存的需求增长节奏。

此外,AI内存需求的增长驱动力持续强劲,全球GDP排名前25的国家多数在推进主权AI建设。

企业为提升生产效率也持续加大AI基础设施投资,超大规模企业的AI相关资本开支呈持续增长态势。

迈克尔・戴尔表示,尽管内存价格上涨或采购节奏延迟可能出现,但企业和云服务提供商的AI基础设施布局势在必行,行业对AI内存的刚性需求将进一步加剧供需矛盾。

此外,目前行业内普遍认为,AI内存的供应短缺问题将持续至2028年,短期内尚无有效的产能补充方案能彻底解决这一问题。

戴尔CEO预警:2028年AI内存需求将激增625倍 供应短缺难解

内蒙古:到2028年开发落地一批行业大模型

财联社4月8日电,内蒙古自治区人民政府印发《内蒙古自治区“人工智能+”行动实施方案(2026—2028年)》,方案提出,到2028年,人工智能与各领域融合创新水平大幅提升,新一代智能终端、智能体在重点行业与民生领域的普及率不低于全国平均水平。开发落地一批行业大模型,重点培育6个以上行业大模型达到国内领先水平,形成一批典型应用场景与解决方案,建成服务全区的人工智能公共服务平台,为优势产业智能化转型提供核心支撑。