前任、老板、同事…全部token化!

闻乐 发自 凹非寺

量子位 | 公众号 QbitAI

好家伙,现在人都token化了吗??

龙虾火了之后,这个Skill那个Skill层出不穷,搞搜索的、做表格的……直接给大家来了波效率大提升。

但这两天,一批新型Skill火出了圈——

人.skill

比如……前任.skill(doge)。GitHub上线了三天,已经收获了上千Star。

这个skill是干嘛的呢,简单说就是蒸馏人格。

提供俩人的美好(?)记忆,就能让AI魂穿前任,用ta的口头禅说话,用ta的方式聊天。

好好好,谁还没个藏在记忆里的前任啊,你们搞大模型的简直是码神(没错,是码神)!!!

不管是当代电子招魂还是赛博复合平替,咱都得体验体验。

走起!

复活吧,我的爱人

操作非常之简单,仅需三步,技能安装、人格创建、记忆投喂。

意思是现在几乎可以对前任招之即来挥之即去了??

我就直接用了有道龙虾LobsterAI,把Skill的zip下载好后直接添加就行。

根据项目给的使用提示,要先用/create-ex提供基础信息,创建前任的人格。

名字、性格、说话习惯、恋爱状态,简单一填,一个基础版数字前任就诞生了。

接下来就是共享记忆,可以选择导入聊天记录、社交媒体内容、上传文件或者直接口述的方式。

你们去过哪、吃过什么、吵过什么架、有什么专属梗,全都可以丢进去。

这部分内容越多,还原得就越像,不过我有个疑问……大家还有和前任的聊天记录和照片么?(doge)

不会早就一键清空,现在只能靠大脑回忆硬编了吧?

把这些内容上传之后就直接生成了SKill,如果有需要补充的信息,可以随时更新,越调教越像本人,主打一个越用越传神。

Skill创建完成后,可以根据不同的命令进入不同模式。

可以先尝试一下性格模式,看看人物画像和你印象中的ta符不符合。

AI会总结ta的脾气、说话方式、行为偏好,甚至恋爱里的小毛病。

比较好玩的是,这个模式会总结你前任的一些缺点,这个大家真可以看看审判得准不准(看热闹.jpg)。

回忆模式就是记录你俩的大事件,第一次见面、第一次约会、第一次吵架、最后一次见面等等。

当然了,这个模式请谨慎使用,因为容易想起一些陈年旧怨……

不过最主要的还是和前任对话,这个环节你就可以狠狠输出了!

想聊就聊,想怼就怼,想发泄就发泄,主打一个电子情绪宣泄口。

如果你的ex不止一位,但你又想都怀念一下,那该选谁呢?

不用纠结!让前任、前前任、前前前任全都过来列队就行(doge),主打一个鱼塘自由。

虽然作者表示,此Skill只是用于个人回忆、情感疗愈,但我觉得还有个其他用途应该也可以——

如果回忆不太美好,那你就可以直接开喷了,把没骂过的全骂一遍,把当年没敢说的狠话全补回来。

老板回复的“or”,我终于知道是啥意思了

其实,前任Skill这个灵感,来自另一个更火项目,同事.Skill,这位开山鼻祖更是已经拿下了6k+ Star。

上班搭子跳槽了,剩下一堆烂摊子?

没关系,搞个赛博分身让他在公司永生就行。

把他的工作风格、沟通习惯、做事逻辑全炼成Skill,以后他不在,你还能继续请教他。

AI时代,送别同事最好的方式就是把他炼成Skill!

不过,感觉更喜欢这个Skill的应该是老板,因为表面上是给一个员工开工资,实际上得到的是很多份劳动力。

那对咱们打工人来说,啥Skill好使呢?

我投老板.Skill一票。

为啥?

因为再问A or B,得到or的答案后,我终于不用再猜boss是啥意思了——

好嘞,马上去约明天上午开会!

图恒宇token版

不止前任、老板、同事,这两天冒出了各种「人.skill」,什么朋友啊、父母啊、导师啊——

只有你想不到的,没有大家搞不出来的,硅基分身主打一个随叫随到。

不过咋感觉这么熟悉呢?

好好好,这不就是流浪地球里图恒宇的低配版嘛,我们上传的不就是那个数字卡?

把一个人的记忆、性格、说话方式存进数据里,让ta在数字世界里活着。

我承认,郭帆导演您的预判水平确实在我之上(doge)。

只能说,在AI时代,科幻照进现实的速度比我们想得快多了。

就连我隔壁工位的小瑶,都已经迫不及待要给自己token化了~

快说实话,你有没有赛博复合?

特斯拉D3芯片亮相,专为太空算力设计

IT之家 4 月 5 日消息,据 not a tesla app 报道,在奥斯汀举行的具有里程碑意义的 TERAFAB 发布会上,埃隆 · 马斯克公布了未来十年支撑特斯拉、xAI 与 SpaceX 共同愿景的芯片路线图。尽管万众瞩目的焦点无疑是 AI5 与 AI6 芯片 —— 它们将成为数百万辆无人驾驶出租车与擎天柱人形机器人的统一“大脑”,但不少人也留意到,演示幻灯片及月球质量投射器视频中出现了第三款高度专用的芯片:D3。

据IT之家了解,D3 即 Dojo 3 芯片,是特斯拉定制芯片项目的战略转向。该架构不再与英伟达在地面超算领域竞争,而是找到了真正且长久的使命:为太空真空环境中绝大多数的人类算力提供支撑。

要理解 D3 的重要意义,需回顾 Dojo 项目跌宕的发展历程。特斯拉首次推出 D1 芯片与 Dojo 超算时,目标是打造用于 FSD 的顶级地面视频训练集群;后续量产的 D2 芯片也延续这一定位,实现了性能的大幅飞跃。

然而,随着特斯拉工程团队依托即将推出的 AI5 与 AI6 处理器,逐步统一 FSD 与擎天柱机器人的架构,同时 xAI 采用商用 GPU 搭建吉瓦级大规模算力集群,不少行业分析师曾推测 Dojo 项目已名存实亡。

此次 TERAFAB 发布会证实,Dojo 并未消亡,而是进化升级,用以解决一个更为严峻的瓶颈:地球能源已难以支撑人工智能革命的算力需求。

目前全球每年新增算力装机容量仅约 100 至 200 吉瓦,受限于各地电网承载力、散热条件与物理场地。若要实现马斯克提出的太瓦级、最终实现拍瓦级算力目标,硬件必须走向太空,D3 应运而生。

D3 芯片与 AI5 及所有地面处理器截然不同,其专为严苛却又极具发展潜力的太空环境量身打造

研发地面芯片时,工程师需投入大量时间与成本解决散热与功耗问题,而 D3 彻底打破了这些限制。太空是无限大的散热池,且芯片无需依赖脆弱的地面电网,因此 D3 被设计为功耗更高、可在远超地面芯片的温度下安全运行的产品。

此外,D3 架构具备极强的抗辐射能力。脱离地球磁场保护后,硅芯片会遭受强烈宇宙辐射,普通芯片易出现比特翻转乃至硬件灾难性故障,而 D3 从底层优化设计,可在恶劣环境中稳定运行。

为何要将 D3 送入太空?马斯克在发布会上给出了惊人的经济预判:短短数年内,将芯片发射至太空的成本,将低于建造传统地面数据中心。

核心在于 D3 芯片与 SpaceX 重型运载能力的协同效应。D3 处理器将集成至百千瓦级大型轨道服务器机柜 —— 人工智能微型卫星,每颗卫星重约一吨,由星舰发射入轨。

进入太空后,D3 集群的运行成本将大幅降低。卫星可实现全天候不间断日照供能,无需配备笨重昂贵的备用电池保障芯片运行。同时,太空太阳能板无需加装厚重玻璃与铝制框架抵御风雨、对抗重力,制造成本远低于地面太阳能板。

归根结底,D3 芯片是连接特斯拉人工智能愿景与 SpaceX 星际探索目标的关键纽带。

AI6 将作为主力芯片,操控车辆行驶并通过擎天柱实现体力劳动自动化,而 D3 则是整个生态体系的隐形支柱。由搭载 D3 的人工智能微型卫星组成的庞大星座,将在轨道中默默运行,承担 xAI 智能升级所需的海量数据处理、搭建火星互联网,最终为人类迈向深空提供算力指引。

燃油不死,荣光仍在!福特 GT Mk IV 纽北圈速超越小米,来到第三

纽北圈速榜,是目前少有地把不同动力形式、不同工程思路的车,放进同一套标准里直接比较的榜单。

此前,排在第一的是保时捷 919 Hybrid Evo,成绩 5 分 19 秒 546,混合动力;第二是大众 ID.R,成绩 6 分 05 秒 336,纯电动;第三名是小米 SU7 Ultra 原型车,纯电动;第四是路特斯 Evija X,同样也是纯电动。

但今天,这份榜单被一台来自美国的纯燃油性能车改写了。

福特 GT Mk IV 以 6 分 15 秒 977 的成绩超越小米,升至第三位,同时成为纽北最快的纯燃油车,也是纽北最快的量产市售车。

在这样一个已经被混动与纯电车型占据前列的榜单里,福特 GT Mk IV 作为一台坚守纯粹内燃机轰鸣的纯燃油车,凭借着极其硬核的机械素质和登峰造极的工程调校,强势地为传统燃油车杀出了一条血路,拿下了属于自己的一席之地。

雷军也转发微博向福特表示了祝贺。

GT Mk IV 是第三代福特 GT 的最终进化版本,定位纯赛道车型,全球限量 67 台。

它的动力来自一台为这款车深度开发的双涡轮增压 EcoBoost V6 发动机。工程师突破了量产发动机的诸多限制,把最大功率提升到了 800 马力以上。

与这台发动机匹配的,是一台专属定制的赛用级变速箱。它的标定逻辑几乎完全围绕赛道效率展开,并不在意民用车强调的换挡平顺性。

每一次齿轮啮合都带着最原始的机械冲击力,其存在的唯一目的,就是尽可能完整地把发动机输出转化成更快、更准的赛道响应。

然而,仅仅拥有蛮力在纽北是远远不够的。纽北全长超过 20 公里,海拔起伏超过 300 米,沿途密布着一百多个极具挑战性的弯道。路面载荷在高速行驶中持续叠加、剧烈变化,如果仅仅依靠传统的、在出发前设定好固定参数的减振器,根本无法应对如此复杂多元的工况。

为此,福特为 GT Mk IV 配备了由 Multimatic 提供的自适应线轴阀悬架系统。这套系统可以让每一支减振器实时感知路面起伏和车身姿态,并在毫秒级完成独立、连续的阻尼调节。

在车身空气动力学方面,福特同样做到了极致。加长轴距直接改善了车辆在超高速路段的稳定性,而夸张的碳纤维长尾造型,也彻底把「好不好看」放到了次要位置。车身上的每一处细节,几乎都服务于同一个目标,在尽可能榨取下压力的同时,维持风阻效率的平衡。

车身上的每一处细节,都是经过无数次风洞测试后的最优解,它们在疯狂榨取下压力的同时,又精妙地维持着风阻效率的平衡。

当然,再强的机械,最后也要靠人把它逼到极限。驾驶这台福特 GT Mk IV 创造纪录的,是拥有极其丰富纽北 24 小时耐力赛经验的顶级车手 Frédéric Vervisch。他与这台机械猛兽完美配合,最终让 6 分 15 秒 977 这个数字留在了圈速榜上。

GT Mk IV 的成绩,并不是突如其来的偶然爆发。

早在 2024 年 12 月,搭载 5.2 升机械增压 V8 发动机的福特 Mustang GTD 就已经跑出 6 分 57 秒 685,正式闯进 7 分钟大关,成为全球少数做到这一点的量产跑车之一。

再往前,福特对极限赛道的投入可以追溯到 1966 年,当时的福特 GT40 搭载 FE 系列 V8 发动机夺冠,终结了法拉利在勒芒几乎不可撼动的统治,

此后,福特又连续 4 年拿下勒芒冠军。直到今天,它依旧是唯一一家在勒芒最高组别赛事中夺冠过的美国汽车制造商。

在 F1 赛道上,福特作为发动机制造商帮助参赛车队拿下 174 场分站冠军、10 次车队年度冠军,是 F1 历史上获分站冠军第三多的发动机供应商。

这种在残酷赛道里积累技术,再把成果往民用端转化的路径,早已写进福特的品牌基因。屡获国际大奖、并被广泛应用在福特量产车型上的 EcoBoost 系列发动机,就是这种「赛道反哺民用」最直接的体现。

不过,赛道上的福特代表着燃油车技术的高点,民用消费市场里的福特,尤其是在全球汽车产业全面电气化的浪潮里,却正处在一段相当难熬的调整期。

今年第一季度,福特整体销量同比下滑 8.8%,减少约 4.4 万辆。

电动车业务承受的压力尤其明显。受美国联邦税收抵免政策取消、消费者观望情绪加重,以及部分车型停产等因素影响,福特此前寄予厚望的电动化主力车型,销量出现了明显下滑。

Mustang Mach-E 的销量暴跌超过 60%;曾经备受关注的纯电皮卡 F-150 Lightning,销量下滑幅度达到 71.3%;商用电动车 E-Transit 也几乎陷入停滞。

眼下真正稳定撑住福特利润的,依旧是更传统的产品。财报显示,大尺寸燃油 SUV,如 Expedition 和 Explorer,销量分别实现了约 30% 的逆势增长;传统燃油性能车 Mustang 的销量增幅更是超过 50%。

一边是销售层面的电动化转型推进艰难,一边是赛道端把纯燃油技术推到极限。这两件事同时发生在福特身上,让人感觉,福特似乎被困在了一个由过往辉煌与未来迷茫交织而成的十字路口。

不过,福特官方已经以明确的态度向世界宣布,这款限量 67 台的 GT Mk IV,就是福特 GT 系列的最终篇章。

在倾尽全力、将纯燃油赛道车的能力边界推到了一个前无古人、甚至可能后无来者的极致位置之后,福特还是要向着新的技术方向迈进。

2026 年,福特正式重返了 F1(一级方程式锦标赛)赛场,他们与目前处于围场统治地位的红牛车队展开深度合作,共同倾注心血开发新一代的混合动力系统。

虽然依旧在赛道上,但传统的纯内燃机咆哮已经成为历史,取而代之的是高度复杂的混合动力系统和能量回收技术。

既然时代的风向已经改变,福特也不得不接受了这种更迭,将自己的技术基石切换到新的轨道上。

文|芥末

《黎明杀机》官方确认没有续集,将持续运营现有作品

IT之家 4 月 5 日消息,据 IGN 当地时间 4 月 4 日报道,《黎明杀机》开发商 Behaviour Interactive 合作负责人马修 · 科特与创意总监戴夫 · 理查德表示,团队将持续长期运营现有作品,通过更新、联动等方式不断扩展内容,因此不会推出续作

两人在游戏开发者大会期间接受采访时提到,如何延续一款成功的持续运营游戏始终是一项挑战。团队在开发过程中曾考虑推出续作或“重制版”,但最终认为这样做“对玩家没有意义”。

理查德说,“总会有一个时刻,我们会觉得现在可以做续作了,而且从零开始开发反而更容易,而不是去修复现有问题。但这对玩家来说从来都没有意义。他们已经在《黎明杀机》中投入了时间和金钱。”

科特随后补充道:“那就是他们想玩的游戏。”

理查德进一步解释说,“所以我们会继续投入精力,让玩家持续获得乐趣,同时也让他们的投入保持价值。”

据IT之家了解,在讨论行业案例时,两人提到育碧的《彩虹六号:围攻》和暴雪的《守望先锋》在续作过渡过程中遇到的困难,以及《收获日 2》和《收获日 3》同时运营的情况。

科特表示,团队并不打算同时维护两个《黎明杀机》。“完全可以把一款游戏一路推进到下一个十年,这才是我们想做的。我们不会推出《黎明杀机 2》,毋庸置疑。玩家不需要购买一款新作然后从零开始。我们也清楚,这款游戏已经有 10 年历史,在游戏行业中这是很长的时间。我们希望今天、明天、甚至明年加入的玩家,都能感觉自己在玩的是一款当下的作品,而不是一件怀旧产品,更是一款现在依然能玩、依然值得玩的游戏。”

AI权力的交接:为什么OpenAI赢了流量,却输了未来?

AI权力的交接:为什么OpenAI赢了流量,却输了未来?

站在2026年的春季回望,AI行业的叙事逻辑已经彻底变了。

两年前,人们还在争论GPT-5什么时候能实现AGI;而今天,硅谷谈论最多的词是“效率”与“利润”。那个曾经靠ChatGPT统治人类想象力的OpenAI,正陷入一场温水煮青蛙的危机;而一直被视为追随者的Anthropic,正悄无声息地完成一场人类商业史上最惊人的“侧翼包抄”。

一、增长的幻觉:当“数学”开始背叛OpenAI

我们总被庞大的基数迷惑。

OpenAI的估值依然高居8400亿美元,营收也率先触达250亿大关,看起来依然是霸主。但作为产品经理,我最清楚的一件事是:趋势比现状更真实。

看看这组让人背脊发凉的数据:

Anthropic的年营收从14亿飙升至190亿,那是整整10倍的增长。

与此同时,OpenAI的增速已经从当年的指数级放缓到了3.4倍。

乍看起来可能觉得“OpenAI还领先啊”。但这恰恰是被基数迷惑的典型表现。

让我换个角度:如果我们从两家公司都达到1亿美元年收入的时刻开始计时,Anthropic用了大概12个月达到100亿,OpenAI用了30个月。 这不是“速度快”的问题,这是量级不同。

按照目前的增长曲线,Epoch AI的数据模型预测,两者的营收曲线将在2026年8月左右完成致命的“死亡交叉”——Anthropic会彻底超越OpenAI的年化收入。

这不仅仅是数字的交汇。OpenAI的领先更像是靠巨大的惯性在滑行,而Anthropic则是开着加力燃烧室在冲刺。用不了两年,你会发现曾经的追随者已经走到了前面。

二、20美元的泥潭:C端的“量”与B端的“值”

为什么OpenAI跑不动了?

我的答案很直白:因为它掉进了自己亲手挖掘的“C端泥潭”。

ChatGPT Plus那20美元的月费,曾被视为AI时代的门票。但今天看来,这更像是一种代价高昂的社会福利。

数据说话:

OpenAI拥有大概800万周活用户

消费者LTV(生命周期价值):200-300美元

转身成本:接近于零

反观Anthropic,它走的是一条“少有人走,却极其肥美”的路。

它的收入80%来自商业客户。这意味着它只需要搞定财富100强——而它已经搞定了8家。

一个企业一旦将Claude嵌入到其合规审计、研发流程或财务分析中,这种“系统级粘性”是20美元订阅费根本无法企及的。Anthropic公开宣布,有500多家企业客户的年消费额超过100万美元。

消费者:200美元 vs 企业:1000万美元。

差了50000倍。

这不是“增速快”的问题,这是商业模式的降维打击。

更狠的是毛利率。OpenAI的毛利率约30%多,Anthropic是50%以上。这意味着同样100块的收入,OpenAI赚30块,Anthropic赚40块。等到两个公司都做到500亿收入时,这10个点的差异会变成什么?每年额外50亿的利润。

OpenAI在玩“流量”的游戏,而Anthropic在玩“渗透”的游戏。一个是吸毒式的用户获取,一个是输液式的企业深化。

三、战线收缩:Sora之死与Constitutional AI之盾

2026年初最震撼的新闻,莫过于OpenAI宣布永久关闭Sora业务线。

这被外界解读为战略失误,但在业内看来,这是OpenAI在生存压力下的“断臂求生”。

为什么?因为视频生成是个算力黑洞。生成一个高质量的视频需要的计算资源,是生成文本的几十倍。而且,视频生成没有直接的商业变现路径——这本质上是个2C的产品。

但OpenAI现在最不能承受的,就是维持低利润的2C业务。它已经意识到,要和Anthropic竞争,必须把所有子弹都用来修筑抵御Anthropic的城墙。Sora的关闭,说明OpenAI在做战略取舍——放弃酷炫的东西,转向盈利的东西。

因为Anthropic的下一代模型Mythos(神话)已经杀到了家门口。

Mythos的恐怖之处不在于它能写诗,而在于它在复杂代码修复和长文本逻辑上的“零幻觉”表现。在SWE-bench(软件工程基准测试)上,Claude Code已经比OpenAI的Codex高出23个百分点。

对于金融、医疗、法律这些行业来说,他们不需要一个“偶尔幽默但经常胡说八道”的天才(GPT),他们需要一个“永远冷静、绝对合规”的专家(Claude)。

你知道Anthropic最聪明的地方在哪吗?Constitutional AI——它自带合规性。

这道AI“枷锁”曾经被极客们嘲笑为“给AI带上束缚”。但现在,这变成了Anthropic进入大银行董事会的通行证。

一个金融机构要用OpenAI的模型做风险评估,需要自己搭建合规审核层、测试框架、人工复核机制——成本可能是几百万。一个金融机构要用Claude做同样的事,拿来就用,Constitutional AI已经帮你确保了合规性。

从这个角度看,Anthropic不是在卖产品,而是在卖“合规的工业标准”。

四、基础设施的幻梦 vs 工业标准的现实

OpenAI还有牌吗?当然有。

它正联手孙正义和甲骨文,试图通过500亿美元的Stargate项目实现算力垄断。这是个宏大的计划:到2030年,建成100万块H100 GPU的计算集群,成为全球最廉价、最强大的AI计算平台。

OpenAI的梦想是成为AI时代的“电力公司”——通过垄断最廉价的能源来卡住对手的脖子。

但这更像是一场豪赌:

时间:Anthropic不会等着OpenAI完成Stargate。在接下来的24-36个月里,Anthropic已经通过多云架构锁定了最赚钱的B端客户。

技术:Google的TPU、Amazon的Trainium、Microsoft的定制芯片——这些都在向低成本靠拢。

最关键——OpenAI赌的是“未来的成本优势”,而Anthropic已经赢得了“现在的利润优势”。

五、这一切意味着什么?

如果你是投资者:

投OpenAI,你在赌“基础设施垄断”这个很长期的故事。5年、10年可能赚大钱,但短期(2-3年)会很难。

投Anthropic,你在赌“企业AI应用”这个更确定的故事。现金流更健康,回报周期更短。

从风险收益比看,后者现在更划算。

如果你是创业者:

用Anthropic的API可能更稳妥。不仅是因为他们的模型稳定性更好,更重要的是——如果你的客户是大企业,企业会倾向于用他们采购的模型。而越来越多的大企业已经在采购Anthropic了。

如果你在大企业做决策:

你的AI战略应该从“试验OpenAI”向“深度部署Anthropic”转变。不是说完全放弃OpenAI,而是权重应该调整。特别是如果你涉及金融、医疗、法律这样的合规要求高的行业。

六、尾声:权力的重构

AI行业的权力结构正在发生哥白尼式的倒转。

OpenAI赢得了名气、流量和早期的崇拜,它依然是这个时代的图腾。但Anthropic正在赢得利润、合同和工业标准。当2026年的硝烟散去,我们会发现:

AI时代的霸主,不一定出现在普通人的手机屏幕里,但一定运行在人类最核心的价值流动之中。

OpenAI永远改变了人类对AI的想象。但Anthropic正在改变人类对AI商业化的理解。前者是造梦者,后者是收割者。在这个时代,收割者的权力往往比造梦者更持久。

OpenAI还有12个月的时间来证明它不仅能改变世界,还能养活自己。否则,这场关于AGI的浪漫史诗,最终可能会变成Anthropic的商业收割。

一句话总结:消费品永远赚不过企业产品。这是一个不以人的意志为转移的商业铁律。

后记:

我知道这个判断会引发争议。有人会说“OpenAI还有Azure的绑定”“OpenAI的模型依然更强”“基础设施才是未来”。这些观点都不错。但我想说的是,这些都是“可能性”,而我讲的是“趋势”。趋势已经在发生,而可能性还在未来。在趋势和可能性之间,聪明的人会选择赌趋势。

国产大模型:这次剧本不一样

国产大模型:这次剧本不一样

2025年底,全球最大的AI模型聚合平台OpenRouter发布的年度使用报告显示,在其用户构成中,47%来自美国,中国开发者占6%。此外,平台调用内容中,英语占比83%,中文不足5%。

但截至2026年4月3日当周,该平台调用量排名前十的模型中,有6个来自中国。按调用量从高到低依次为:小米MiMo-V2-Pro、阶跃星辰Step 3.5 Flash、MiniMax M2.7、DeepSeek V3.2、智谱GLM 5 Turbo和MiniMax M2.5。其中,小米MiMo-V2-Pro以4.82万亿Token(词元)位居全平台第一。

事实上,自2026年2月9日至15日,当周中国模型调用量首次超过美国以来,中国模型的领先已持续近两个月。

OpenRouter平台汇聚了超过400个AI模型,覆盖60多家供应商,其调用量的数据被视为观察全球开发者模型选择偏好的窗口之一。开发者可通过同一API Key(一种用于验证身份和调用服务的密钥)在不同模型间随时切换。

OpenRouter联合创始人兼COO Chris Clark在2026年2月公开表示,中国开源模型在美国企业运行的Agent(智能体)工作流中占比“不成比例的高”。同时,开发者社区中围绕模型间任务分配与成本优化的讨论也日益增多。

有观点将这一现象与30年前的中国制造业类比:当时中国凭借成本优势切入全球电子产业链的组装环节,产生了富士康、立讯精密等代工企业;如今,中国大模型也正以价格优势切入全球AI产业链的执行环节。也有观点将国产大模型视为“AI时代的富士康”。

国产大模型在AI产业链中扮演何种角色?该角色的含金量究竟有多高?

价格优势

经济观察报记者梳理各厂商截至2026年3月底的官方API定价发现,中美主流大模型的价格存在巨大差距。

以输入价格为例,中国模型中,DeepSeek V3.2为每百万Token0.28美元,MiniMax M2.5为0.3美元,月之暗面Kimi K2.5为0.42美元。美国模型中,Anthropic Claude Opus 4.6为5美元,OpenAI GPT-5.4为2.50美元。美国主流模型的输入价格约为中国主流模型的10至20倍。

输出价格差距更为明显。中国模型方面,DeepSeek V3.2为每百万Token0.42美元,MiniMax M2.5为1.1美元,月之暗面Kimi K2.5为2.2美元。美国模型方面,OpenA IGPT-5.4为15美元,ClaudeOpus 4.6为25美元。中美主流模型输出价格差距约为7倍至60倍。

上述价差一直存在,此前未引发大规模用户迁移,原因很简单,大多数人用AI的主要场景就是聊天,Token消耗量较低,价差影响甚微。

但2026年初,一只“龙虾”的出现改变了这一切。开源工具OpenClaw(开发者社区称为“龙虾”)于2026年2月前后迅速走红,上线后很快登顶OpenRouter应用排行榜第一,单周消耗超6000亿Token。“龙虾”属于智能体应用,和过去“你问我答”的聊天模式不同,它可使AI在电脑上自主执行编程、测试、文件管理等任务,无需逐步人工干预。

在这种工作模式下,Token消耗量与聊天场景不在一个量级。

比如,一个编程任务可能需要经历几十轮“写代码—运行—报错—修改—再运行”的循环,每一轮都是一次完整的模型调用。为了让智能体记住此前的操作,每次调用还需要调用对话历史。

有开发者在社交平台上表示,一个活跃的OpenClaw会话上下文很容易膨胀到23万Token以上。若全程使用ClaudeAPI,月费用可能在800至1500美元之间。也有用户称,一个配置不当的自动化任务,一天就烧掉了200美元。

以OpenClaw为代表的智能体应用推高了整个平台Token消耗量。比如,2025年3月3日至9日当周,OpenRouter前十大模型周调用量总计1.24万亿Token。至2026年2月16日至22日当周,仅前十大模型周调用量就超过了8.7万亿Token,增长近7倍。编程任务在平台Token消耗中的占比也从2025年初的11%升至2025年底的50%以上。

当单次任务Token消耗从几千增至几十万,中美模型间的价格差距从可忽略的成本转变为每月数百甚至上千美元的显著差异。

2026年2月19日前后,美国大模型公司Anthropic更新服务条款,禁止用户将Claude订阅账号凭证接入OpenClaw等第三方工具,要求通过API按量计费。随后Google也推出类似限制。对于每天需频繁调用API的智能体应用,模型选择中的价格因素成为绕不过去的问题,开发者被推上了按量付费的赛道。

在智能体核心的编程场景上,中美模型能力已较为接近。

SWE-Bench Verified是由普林斯顿大学研究团队维护的一项编程能力公开评测,做法是让AI模型去修复GitHub(全球最大的开源代码托管平台)上真实的代码问题。根据该评测公开排行榜的数据,2026年2月13日发布的中国模型MiniMax M2.5拿到了80.2%,2月5日发布的美国模型Claude Opus 4.6为80.8%,两者差距只有0.6个百分点。

在能力相近而价格悬殊的情况下,开发者的选择迅速反映在了数据上。

2026年2月9日至15日当周,中国模型Token调用量达4.12万亿,首次超过美国模型的2.94万亿。随后一周,中国模型调用量升至5.16万亿,三周时间增长127%。同期美国模型调用量降至2.7万亿。

中国大模型为什么能比美国大模型便宜这么多?

工信部信息通信经济专家委员会委员盘和林向经济观察报表示,原因主要有两点:一是中国算力基础设施规模大、复用率高,报价较低;二是中国算力集群中存在大量自建算力,获取成本低于海外。

此外,技术路线也影响成本。有业内人士告诉记者,目前主流中国大模型普遍采用MoE架构,也称为“混合专家模型”。通俗地说,一个MoE模型虽然参数总量很大,但每次运行时只激活其中一小部分参数来处理任务,而不是全体参数,这大幅降低了每次推理所需的计算量。

不同路径

硅谷风投机构a16z合伙人Martin Casado在2025年底表示,在使用开源技术栈的AI初创公司中,约80%的公司使用中国模型。他随后在社交平台上补充说明,这并非指80%的美国AI初创公司都在使用中国模型,而是那些选择开源技术路线的公司中(约占全部美国AI初创公司的20%至30%),约80%使用了中国模型。

记者注意到,GitHub上已出现多个帮助开发者在不同模型间优化成本的开源工具。其思路多为将任务按难度分级,简单任务交由免费或低价的中国模型处理,复杂任务再调用高价美国模型。

其中一个名为ClawRouter的项目在文档中给出了对比数据,显示采用这种搭配方式后,平均成本从每百万Token25美元降到了约为2美元。Anthropic的产品ClaudeCode,在官方文档中也采用了类似的分层设计,默认用最便宜的模型处理日常任务。

这种模式能够成立的前提是中国模型在执行类任务上能力足够。在编程方面,前面提到的SWE-Bench数据已经说明了这一点。而在编程之外,中美大模型整体能力差距有多大呢?

LMSYS Chatbot Arena是目前全球公认度最高的AI模型评测平台之一,其做法是让真人用户在不知道模型名字的情况下同时试用两个模型,然后投票选出更好的那个,相当于一场AI之间的盲品测试。

在其截至2026年3月25日的综合排名中,前五名均为美国公司模型,中国模型中排名最高的DeepSeek V3.2 Speciale位列第六。在专门测试复杂推理能力的Hard Prompts(高难度提示词,专门用于测试模型处理复杂推理和多步逻辑任务的能力)类别中,中美模型的差距更为明显,第一梯队仍主要为美国模型。

编程能力接近、复杂推理尚有差距,这是当下中美大模型之间差异化能力的体现,也是“分层调用”这套做法成立的基础。

不过,和30年前被锁在低利润率的代工厂商不同,中国大模型厂商在价格上并没有一直往下走。

事实上,从2024年开始,中国大模型行业曾发生过一轮价格战:2024年5月,字节跳动旗下火山引擎豆包大模型以0.0008元/千Token的价格引发“价格战”,阿里云、百度智能云相继跟进。此后近一年,行业经历Token价格下降超过90%的阶段,部分厂商推理算力毛利率一度为负。

厂商当时的策略是以亏损换取规模,培养用户调用习惯。然而,2026年2月OpenClaw走红后,Token消耗量增速远超预期,算力供给趋紧。

智谱最先做出反应,2026年2月12日发布新模型GLM-5时上调API定价,3月16日发布GLM-5-Turbo时再次提价,两轮累计涨幅83%。

智谱CEO张鹏在2025年度业绩说明会上表示,2026年一季度API调用定价提升83%,调用量增长400%。根据年报,智谱2025年全年收入7.243亿元,同比增长132%,MaaS(模型即服务)平台年度经常性收入约为17亿元,12个月增长60倍。

选择涨价的不只智谱一家。2026年3月13日,腾讯云调整了混元系列大模型定价,部分模型涨幅超460%。3月18日,阿里云与百度智能云同日发布调价公告,AI算力相关产品涨幅在5%至34%之间,新价格于4月18日生效。

中科曙光高级副总裁李斌在接受经济观察报采访时称,算力系统评价指标正在发生改变,过去衡量一个系统的标准是看它有多少算力,现在则要看它能够多么经济地产出Token。

从集体降价到集体涨价,转变只用了不到两年。

2026年3月,国家数据局局长刘烈宏在中国发展高层论坛上公布了一组数字:中国日均Token调用量已突破140万亿,较两年前增长超过1000倍。

在同月的GTC大会上,英伟达创始人黄仁勋称,Token将是未来数字世界最核心的大宗商品。

在盘和林看来,中国大模型的竞争力很强,不是在补全,而是在引领,尤其在AI应用端。但他同时表示,中国在原创性创新上还有提升空间,当前AI体系中的核心架构,从人工神经网络到注意力机制,都是海外率先提出、国内跟进迭代。中国大模型下一步需要在应用端继续发力的同时,在基础算法上展开原创性创新。

30年前的消费电子代工产业有一个特点,组装环节的利润率被上游品牌商牢牢压住,不少头部的代工厂发展至今的毛利率都没有超过10%。成本优势带来了订单,但未能带来定价权。

当前,中国大模型的处境看起来与当年的消费电子代工产业有几分相似,但在定价权方面似乎又颇有不同。例如,智谱涨价83%之后,调用量增长了400%。阿里云、百度智能云、腾讯云在2026年3月集体上调了AI算力和模型服务的价格,需求并没有萎缩,调用量在持续增长。

在SWE-Bench编程评测上,头部中国模型和头部美国模型的差距已经缩小到不足1个百分点。两者在复杂推理上的差距还在,但这个差距也在快速收窄。

此次,中国大模型厂商的发展路径似乎有所不同。

魏思琪换上新机,REDMI K90至尊版来了 小米首款风冷旗舰

快科技4月5日消息,日前,REDMI K90至尊版通过3C认证,预计将于本月发布。

今日,小米中国区市场部总经理魏思琪用小米新机发布微博,不出意外,这正是即将登场的REDMI K90至尊版,这将是小米首款配备主动散热风扇的机型。

魏思琪换上新机!REDMI K90至尊版来了 小米首款风冷旗舰

魏思琪换上新机!REDMI K90至尊版来了 小米首款风冷旗舰

相较传统被动散热方案,内置风扇在散热效率上具备明显优势,可在高负载场景下持续带来更稳定的性能输出。

同时,该风扇预计还能根据高温环境或游戏场景自动开启,实现智能调节,在性能与功耗之间取得更优平衡。

魏思琪换上新机!REDMI K90至尊版来了 小米首款风冷旗舰

魏思琪换上新机!REDMI K90至尊版来了 小米首款风冷旗舰

核心配置方面,REDMI K90至尊版搭载天玑9500芯片,基于台积电第三代3nm工艺打造,相比上一代,其单核性能提升约32%,多核性能提升约17%。

新机内置约8500mAh超大电池,并支持100W有线快充,在重度使用场景下也能兼顾长续航与快速回血能力。

需要注意的是,受全球存储芯片等关键零部件价格持续大幅飙升影响,REDMI K90至尊版的定价可能也会上调。

小米集团总裁卢伟冰此前表示,本轮内存涨价的力度确实远超预期,同版本内存价格相比去年Q1飙升近4倍。

其中,12+512GB涨了约1500元,16+1T更是涨得离谱,这对一直以极致性价比定价的REDMI产生了很大的影响。

整体来看,REDMI K90至尊版在散热形态、性能释放与续航配置上均实现明显升级,但在成本压力之下,其价格策略或将成为发布会的一大看点。

魏思琪换上新机!REDMI K90至尊版来了 小米首款风冷旗舰

不惧市场环境压力,多家日韩车企仍在美国发布纯电新车

IT之家 4 月 5 日消息,据路透社当地时间 4 月 1 日报道,在税收优惠取消、销量下滑以及需求走弱的多重压力下,多家车企仍在纽约车展发布新一轮纯电车型。

IT之家获悉,该报道主要提到了多家日韩车企的大动作。起亚计划今年晚些时候在美国推出价格更低的 EV3,斯巴鲁则发布三排座纯电 SUV“Getaway”,可容纳 7 人,预计将于今年或明年上市,成为其在美国的第四款纯电车型。

尽管市场环境趋紧,但由于近期汽油价格上涨,部分需求已经开始回升。起亚美国市场营销副总裁拉塞尔 · 瓦格说:“纯电市场会回暖,只是节奏可能比预期更慢,我们会持续投入。”起亚预计,美国纯电市场将在未来 3 至 4 年恢复至此前水平

通用汽车已恢复销售雪佛兰 Bolt 纯电车型,起售价为 27600 美元(IT之家注:现汇率约合 19 万元人民币)。此前,该车型曾于 2023 年停产。

汽车创新联盟数据显示,2025 年纯电车型占美国汽车销量的 9.6%,但在税收抵免结束后,最近三个月降至 6.5%,为 2022 年初以来最低水平。

日产美洲区董事长克里斯蒂安 · 穆尼耶说:“当前纯电市场几乎没有需求。市场占比约为 7%,其中一半依赖高额激励,因此不属于自然需求。”

现代汽车首席执行官何塞 · 穆尼奥斯也给出了自己的判断:油价上涨正在推动纯电车型销量增长,尤其是在加州。这一变化不是政策驱动,而是市场因素驱动。现代汽车已相应调整战略,增加混动车型布局。“未来纯电车型的占比会逐步提升,可能达到 10% 至 15%,但不太可能达到 50% 或 60%。”

丰田北美丰田品牌总经理戴维 · 克里斯特透露,丰田今年将在美国推出三款纯电车型,油价上涨将带来一定支撑。“销量不会回到依赖补贴的水平,但会高于没有油价上涨时的表现。”

目前,纯电车型在美国在用轻型车中的占比为 2.5%,2024 年销量占比为 10.2%。美国政府已采取多项政策,削弱纯电车型的吸引力,同时放宽燃油车型生产限制。

美国犹他州启动新试点项目:AI为患者开具精神类药物处方

IT之家 4 月 5 日消息,据外媒 PC Mag 当地时间 4 月 4 日报道,美国医疗机构 Legion Health 在犹他州获得监管批准,启动一项试点项目,允许 AI 系统为患者开具精神类药物处方

该项目采用由 Doctronic 提供的 AI 聊天机器人,但用药范围受到严格限制。系统仅允许开具风险较低的药物,包括用于抑郁症治疗的舍曲林(Zoloft),以及不会涉及苯二氮卓类或 Adderall 等具有依赖风险的药物。

同时,系统仅支持已有处方的续开,不会新增药物。用户在获取处方前需回答 15 个问题,涉及情绪、健康状况以及现有用药的副作用,服务费用约为 20 美元(IT之家注:现汇率约合 137.9 元人民币)。

犹他州 AI 政策办公室方面介绍,处方续签占据了大量医疗行政工作,通过自动化这些安全且常规的流程,可以让医生将更多时间用于患者护理,减少延误,并帮助患者更好地坚持用药。

在实施初期,系统仍将接受医生审核,不过会随着项目推进逐步取消。尽管设置了多重限制,精神医学领域仍存在明显质疑声音。

哈佛医学院精神病学教授约翰 · 托罗斯说,“目前仍不确定 AI 是否能够理解患者用药背后的复杂情境。许多患者需要持续管理和谨慎评估,而聊天机器人很难提供这样的支持。”

监管机构表示,将在为期一年的试点中评估 AI 的实际影响,再决定是否调整相关法律。

Legion Health 方面则态度积极,CEO 亚瑟 · 马克瓦特透露,该系统有望“很快”推广至美国各州。

同事被“炼化”为Skill?大家把这事想简单了

“同事.Skill”这个GitHub项目火出圈了。

随后还有什么“老板.Skill”、“前任.Skill”。

好像你身边的每一个人都可以被Skill变成数字人。7*24小时的陪着你。

有的媒体说它能“完美复刻同事的语气、甩锅姿势”,还有媒体说它“彻底替代你的同事”。

讲真的,上次我看到这么赛博朋克的事情,还是《战锤40K》里太空死灵这个种族的背景故事。

莫非我穿越了?

我看了一眼手机,一切正常。

于是我又从头梳理了整场事件,最后我发现这件事本身就是技术社区的一次玩梗,却在传播中变得越来越煞有介事。

这不难理解,在这个人人都担心被AI替代的今天,焦虑比真相更有传播力。

01

所谓的“炼化同事”,其实就是个爬虫加提示词模板

同事.Skill这个项目非常简单。

在colleagues文件夹下,每个“数字同事”就是一个子目录,里面有几个Markdown文件:Skill.md是主入口,work.md描述工作,persona.md描述性格,再加一个meta.json存放元数据。仅此而已。

所有信息被总结成几个静态文本文件,而不是使用向量数据库做语义检索,也不涉及任何模型训练。

工作流程也直白。

项目提供了几个Python脚本,其中feishu_auto_collector.py用来抓飞书消息和文档,dingtalk_auto_collector.py 抓钉钉数据,wechat_parser.py解析微信聊天记录,email_parser.py处理邮件。

这些脚本干的事情就是数据爬取和格式转换,把原始文本整理成统一格式。然后把这堆文本喂给AI,让它总结出这个人的“工作能力”和“性格特征”,生成那几个Markdown文件。

运行的时候更简单。

当你调用这个 Skill, Claude就会读取那几个静态的Markdown文件作为上下文,然后按照描述的风格跟你对话。

就像你给演员一份剧本,告诉他“你现在要扮演一个说话爱用感叹号、经常甩锅给测试部门的产品经理”,演员照着演就行了。

同事.Skill本质上是一个遵循AgentSkills标准的提示词+爬虫工程项目,根本不是什么AI训练项目,更不是赛博永生。

项目中“五层人格结构”确实存在,但这只是提示词的组织方式,不是把这个人的思维方式和知识彻底分析透彻,里面也没啥高深莫测的技术。

persona.md文件里把人格描述分成五层:Layer 0是硬性规则,优先级最高;Layer 1是身份认知,比如“我是前端工程师”; Layer 2是表达风格,比如“说话简洁,不用 emoji”; Layer 3是决策模式,比如“遇到技术选型倾向保守”; Layer 4是人际行为,比如“不主动参与争论”。

同事.Skill运行规则也写得很清楚,先由persona部分判断用什么态度接任务,再由work部分用技术能力完成任务,输出时始终保持persona定义的表达风格。

说到底,它也只是在给Claude写一份详细的角色扮演指南罢了。

这种设计带来的第一个问题是记忆。

这些Skill没有持久化记忆系统。每次对话都是重新读取那几个静态Markdown文件,不会根据新的交互学习和更新。

你跟它聊的内容,下次再调用这个Skill的时候它就忘了。它不记得你们昨天讨论过什么技术方案,不知道项目进展到哪一步,更不会因为你的反馈而调整自己的回答风格。

项目的README里有句话说得很诚实:“原材料质量决定Skill质量”。

计算机圈里有句话叫做GIGO,全文是Garbage In,Garbage Out。翻译过来是垃圾进,垃圾出,指的就是同事.Skill里提到的内容。

如果你的前同事本来就不爱发消息,聊天记录里都是“收到”“好的”“1”,那生成出来的 Skill 基本就是个复读机。再比如聊天记录里技术讨论很少,大多是闲聊和吐槽,那这个 Skill 也只能陪你闲聊和吐槽。

这还没完,由于这是你设定给模型的角色,因此AI在长时间交互中会出现人格漂移,也就是逐渐偏离预设人格。

这是由于随着对话轮次增加,上下文窗口里塞满了新的对话内容,最初定义人格的那段提示词在整个上下文中的权重被稀释,模型就会逐渐“忘记”自己应该扮演什么角色。

以及,这个同事.Skill,没办法蒸馏出“专业知识和判断逻辑”。

AI在扮演过程中会出现“专家悖论”的现象。就是说你越让AI扮演懂技术、懂知识的角色,它反而会输出错误的答案。

因为一旦要求AI扮演专家,AI会优先开始模仿专家的表达方式、语气、甚至某些职业习惯,但这些额外的约束反而干扰了模型对问题本身的判断。

同事.Skill、老板.Skill、前任.Skill,它们能提取的,只有最表面的东西。

口头禅和表达习惯可以提取,比如“习惯用‘嗯嗯’开头”“喜欢用省略号”。常用的技术栈和工具可以提取,比如“熟悉React和TypeScript”。显性的工作流程可以提取,比如“代码提交前先跑单元测试”。

但它提取不了复杂情境下的判断力。

当出现一个从未遇到过的技术问题,需要权衡性能、成本、开发时间多个因素时,这个Skill给不出真正有价值的建议。

它提取不了创新性的问题解决能力。真正的工程师会在遇到瓶颈时想出巧妙的解决方案,但Skill只能重复它见过的模式。

它提取不了基于多年经验积累的直觉。有经验的人看到一段代码会隐隐觉得“这里可能有坑”,但这种直觉无法被几个Markdown文件捕捉。

说这个Skill能“用他的技术规范写代码”,这话只对了一半。

它确实能输出符合某种风格的代码片段,比如遵循特定的命名规范、代码格式。

但遇到真正需要架构决策的时候,比如要不要引入新的技术栈、如何设计系统的扩展性、怎么平衡技术债务和业务需求,它就只能给出模棱两可的建议,或者干脆重复训练数据里见过的标准答案。

说到底,这是一个很有想法的Skill,展示了如何用结构化的方式封装“人格”。

它更像是一个带人设的聊天机器人,或者说是一个智能化的工作日志。把它当作知识传承的辅助工具,这个定位是合理的。

但如果真的以为它能替代一个人,那只能说你被误导了。

02

这事其实违法了

同事.Skill在项目说明里写得很清楚,需要把同事的飞书消息、钉钉文档、邮件喂进去。

这句话背后藏着巨大的法律风险。

问题的核心在于离职后的数据使用权。

《个人信息保护法》第13条规定,处理个人信息需要满足几个条件之一:取得个人的同意、为订立履行合同所必需、为履行法定职责或法定义务所必需、为应对突发公共卫生事件、在合理范围内处理已公开的个人信息。

现在的情况是,员工离职了,劳动合同已经解除。公司继续使用他工作期间的数据来“炼化”成数字人格,这属于哪一条?

答案是哪一条都不属于。

没有取得离职员工的新授权,因为大多数情况下根本没人问过他。劳动合同已解除,不再是“履行合同所必需”,因为合同关系已经终止,继续使用数据没有合同基础。

将数据用于AI训练超出了条款中的合理范围,因为员工发送工作消息时的合理预期是用于工作沟通,而不是被拿去训练AI。

违反《个人信息保护法》可能面临责令改正、警告、没收违法所得、罚款。

一般违法情节者,责令改正、警告、没收违法所得,拒不改正的处 100 万元以下罚款。

情节严重者,由省级以上监管部门处5000万元以下或者上一年度营业额5%以下罚款,同时可责令暂停相关业务、停业整顿、吊销相关证照等。

更麻烦的是敏感信息。

工作聊天记录里不只有工作内容,还可能包含个人健康状况,比如“今天身体不舒服,请假”;家庭情况,比如“孩子生病了,要早走”;财务信息,比如“这个月房贷压力大”;人际关系,比如对其他同事的评价。

这些都属于敏感个人信息。

《个人信息保护法》第28条规定,处理敏感个人信息需要取得个人的单独同意。

注意这里是“单独同意”,不是入职时签的那个笼统的数据使用协议可以覆盖的。

但这些Skill项目的操作流程里,完全没有这个环节。它们只是用爬虫一股脑地把所有聊天记录都转换成Markdown格式再喂给AI,不管里面有什么内容。

这意味着每一个被“炼化”的同事 Skill,都可能违反了敏感信息保护规定。而且这个违规不是一次性的,是持续的。因为每次调用这个 Skill,就是在处理这些敏感信息。

你以为这就完了?

项目要求用户提供微信的聊天数据,并且还在项目上推荐了三款工具。

根据《腾讯微信软件许可及服务协议》,未经腾讯书面许可,对微信运行过程中的数据进行复制、读取、衍生开发,均属于违规行为。

《数据安全法》第45条规定,违反数据安全保护义务,造成数据泄露等严重后果,构成犯罪的,依法追究刑事责任。

这不是闹着玩的,企业数据泄露是有刑事责任的。

很多人可能觉得这只是“整活”,不会真的有人追究。

可“整活”从来不是免死金牌。如果真的有公司开始用这种方式“留住”离职员工,那就准备吃官司吧。

离职员工发现自己被“炼化”了,他完全可以向相关部门投诉,要求公司删除相关数据并赔偿损失。

公司因此泄露了商业秘密或其他员工的信息,还可能面临其他员工的集体诉讼。如果被监管部门立案调查,即便最后没有顶格处罚,光是调查和整改的成本就足够公司喝一壶的。

03

从玩梗到神化

这件事的起源其实很简单。X平台用户发了一条推文:“被毕业的同事其实并没有消失,他们只是被蒸馏成了 Token,换成另一种形式陪伴你!”以此调侃步入agent时代后,所有企业都在以token的消耗量判断模型的价值。

这条推文在小圈子里引发了共鸣。因为它戳中了一个普遍的痛点,人人都担心自己被AI替换掉。

于是就有了如今“炼化”同事的Skill。

项目在GitHub上发布后,所有人都知道这是个玩具。

但事情很快变味了。当老板.Skill、前任.Skill等衍生项目出现后,话题开始从技术实验变成情感寄托。

不了解技术的人看到这些梗,会以为真的可以把一个人“复活”成AI。从玩梗到误解,只差一个传播链条。

当这事进入大众舆论场中,叙事开始偏离事实。

其中的技术被夸大了100倍,社会影响则放大了1000倍。

一个简单的文本拼接工具,被包装成了“数字永生”。一个GitHub上的玩具项目,被渲染成了“职场生存危机”。一段很普通的提示词,被解读成了“AI替代人类的开端”。

还是我开头说的那句话,焦虑比真相更有传播力。

大众需要的不是准确的技术报道,而是能引发情绪共鸣的故事。

这场从技术社区玩梗到大众神化的过程,技术在传播中失真了。

一个项目从开发者社区传播到舆论,每经过一个环节,技术细节就被简化一次,叙事就被夸张一次。

到最后,原本的python爬虫,就变成了“数字永生”。

当大多数人不具备基本的 AI 知识,就很容易被这种叙事误导。他们不知道提示词工程和模型训练的区别,不知道上下文注入和真实记忆的区别,不知道角色扮演和人格复制的区别。

这种认知空白,给了夸大叙事生存的空间。

我认为真正值得担心的并不是同事.Skill,或者老板.Skill这些项目本身,而是大众对技术的系统性误读。

为了流量而夸大技术能力,会误导公众对AI的认知。

当我们把注意力都放在“同事被炼化”这个噱头上时,真正重要的问题被忽略了。

如何在AI时代保护个人数据权利?