2026年3月3日
2026年2月最后一周到3月初,AI行业经历了可能是其历史上最密集、最戏剧性的一段时间。Anthropic被美国政府封杀,OpenAI连夜接盘签约后遭遇用户反噬,马斯克的xAI悄然获利——三家公司的不同选择,以及随之而来的截然不同的后果,构成了一则关于原则、利益与沉默的现代寓言。与此同时,美国对伊朗的军事打击将AI正式推上了战争的前台,而伊朗的报复性导弹击中了AWS数据中心,宣告了一个新现实的到来:数据中心已经成为军事目标。
本文将按时间线梳理这些事件的来龙去脉,厘清各方立场与行为逻辑,并探讨这些事件对AI行业和更广泛世界的深远影响。

一、Anthropic的抉择:画红线、被封杀、登顶下载榜
故事的起点是五角大楼与Anthropic之间持续数月的合同谈判。美军自2025年夏天起就在其机密系统中使用Anthropic的Claude模型。这份合同价值高达2亿美元,Claude也是当时唯一部署在美军机密网络中的AI模型,曾在2026年1月抓捕委内瑞拉总统马杜罗的行动中发挥了作用。
五角大楼的核心诉求很明确:要求Claude可以被用于"所有合法用途"(all lawful purposes),不接受任何来自AI公司的使用限制。而Anthropic坚守两条底线:第一,Claude不得被用于针对美国公民的大规模监控;第二,Claude不得被用于开发完全自主的致命武器系统。

2月25日,国防部长Pete Hegseth在五角大楼会见了Anthropic CEO Dario Amodei,实质上下达了最后通牒:在2月28日周五下午5:01之前接受条件,否则将面临被列为"供应链风险"(supply chain risk)的惩罚——这个标签此前只用在华为等与敌对国家相关的企业身上。
据Dario后来在CBS的专访中透露,五角大楼在合同中实际上写入了一些看似满足Anthropic条件的措辞,但其中藏着大量模糊表述,比如"如果五角大楼认为合适的话"(if the Pentagon deems it appropriate)这类表述。这些措辞实际上给了军方随时绕过限制条款的后门。Anthropic识破了这一策略,在最后通牒到来前不到24小时就正式回绝了。
Dario在CBS采访中的表态值得仔细玩味。他反对的并非AI永远不能用于军事领域,而是认为当前阶段AI的可靠性还不够——模型仍然会犯错、会产生幻觉,让它参与生死决策为时尚早。他甚至明确表示,如果未来对手国家部署了自主武器,Anthropic也会考虑开发相应技术。换言之,他的立场是"not yet"(还没到时候),而不是"never"(永远不会)。这是一个工程师式的风险评估判断,而非理想主义者的绝对立场。但即便如此,这两个字已经让五角大楼不满。
还有一个细节让人印象深刻:Dario在全国转播的镜头前反复强调"我们是爱国的美国人"(we are patriotic Americans)。一个硅谷科技公司CEO需要在电视上反复证明自己爱国,这本身就说明了他面对的压力之大。他还说了一句颇具力量的话:跟政府唱反调本身就是最美国的事情(disagreeing with the government is the most American thing in the world)。

2月27日至28日,事态迅速升级。特朗普在Truth Social上宣布指示所有联邦机构"立即停止"使用Anthropic技术,称其为"极左觉醒公司"。Hegseth随即宣布将Anthropic列为"供应链风险",并要求所有与军方有业务往来的承包商、供应商和合作伙伴立即停止与Anthropic的一切商业活动。Anthropic有六个月的过渡期逐步退出政府系统。
Anthropic的回应是:将在法庭上挑战这一认定。正如Dario所说,这一认定在法律上站不住脚,而且一旦开了先例,将来任何美国公司在与政府谈判时拒绝某个条款,都可能被扣上"威胁国家安全"的帽子。
然而,剧本在这里发生了戏剧性的反转。被封杀之后,Claude在App Store上一路飙升。根据Sensor Tower的数据,Claude在1月底还排在全美App Store第42名左右。到封杀发生的那一周,它在周三升至第6名,周四第4名,到周六直接登顶全美第一,把ChatGPT拉到了第二位。Anthropic表示,那一周每天的新注册量都在刷新历史纪录,免费用户比一个月前增长了60%以上,付费用户在今年已经翻了一倍多。不只是美国,在德国和加拿大等市场,Claude同样冲上了排行榜前列。
旧金山Anthropic办公室外面的人行道上,有人用粉笔写下了一句话:"You give us courage"(你给了我们勇气)。

二、OpenAI的选择:连夜签约与随之而来的信任危机
在Anthropic被封杀的同一天晚上,OpenAI CEO Sam Altman宣布与五角大楼达成协议,将ChatGPT部署到军方的机密网络中。
这一时间节点本身就充满争议。就在前一天,Altman还在公开场合表态支持Anthropic坚持AI安全的立场。结果第二天就签了合同接盘——而且这份合同的核心条款正是Anthropic所拒绝的"所有合法用途"框架。

2月28日下午,Altman在X平台上开了一场AMA(Ask Me Anything),回答了大量关于五角大楼合同的问题。这场AMA获得了680万次浏览和7600条回复,但从公关角度来看,它更像是一次教科书级别的灾难。
Altman的几个关键回答值得拆解。首先,被问到为什么五角大楼接受OpenAI但拒绝Anthropic时,他表示自己"更倾向于通过技术手段来确保安全,而不是在合同里写清楚具体的禁止条款"。这听起来合理,但问题在于:Claude同样有技术层面的安全措施,但它还是被用于了空袭行动。当技术手段挡不住的时候,合同条款就是最后一条防线——而Altman主动放弃了这条防线。更关键的是,他补充说Anthropic想控制自己的AI如何被使用,"而我们没那么在意"。在军事领域"放弃控制权"这几个词意味着:AI交出去之后,怎么用你说了不算。
其次,Altman承认这笔交易"确实有点赶"(definitely rushed),并且自己也知道"整体看起来确实不好看"(optics don't look good)。他表示如果这场交易最终缓和了政府和AI公司之间的紧张关系,那他们就是天才;如果没有,就会被批评"匆忙和不谨慎"。
第三,关于Anthropic被贴上供应链风险标签,Altman自己称之为"一个非常糟糕的决定"(a very bad decision),"一个非常可怕的先例"(an extremely scary precedent)。一边说太可怕,一边签约接盘——这个矛盾被用户们看得一清二楚。

第四,Altman说自己"深深相信民主制度,相信民选领导人的权利",并且"害怕一个AI公司觉得自己比政府还强的世界"。但结合上下文,Anthropic坚持在合同里写清楚"不能用于大规模监控美国公民",按照Altman的逻辑,这就成了"AI公司想要太多的控制权"。这个说法当场就引发了大量批评。
AMA之后,现实的反馈迅速到来。QuitGPT运动在Anthropic被封杀之前就已经因为OpenAI高管的政治捐款和ICE使用ChatGPT技术等问题而兴起,现在因为五角大楼事件被大幅推上了新高度。QuitGPT.org网站称已经有超过150万人参与了取消订阅、分享抵制信息或签名等行动。CancelChatGPT.com也随之上线,手把手教用户如何删除账户。Reddit的OpenAI和ChatGPT社区里大量用户晒出取消订阅的截图,有人写道:"用了三年,是时候取消了。"线下抗议活动也在旧金山OpenAI总部门口组织起来。
更让OpenAI头疼的是内部的撕裂。包括多名研究人员在内的11名OpenAI员工签署了一封致五角大楼和国会的公开信,明确表示"联邦政府不应该因为一家私营公司拒绝接受合同修改条款而对其进行报复"。OpenAI内部负责AI安全对齐(alignment)的研究人员Lilian Gao更是公开在X平台上批评自己的公司,称五角大楼合同里的安全条款是"表面功夫"(window dressing)。一个做安全对齐的人说安全条款是门面工程——这大概是OpenAI能受到的最致命的内部批评了。
值得注意的是,超过700名Google和OpenAI员工联合签署了一封名为"We Will Not Be Divided"的公开信,呼吁整个行业站在Anthropic一边,反对政府对拒绝合同条款的公司进行报复。你的竞争对手被政府打压,你自己的员工站出来替竞争对手说话——这在以往的商业世界里几乎不可想象。
三、马斯克的沉默:什么都不做,什么都赢了
在整场风暴中,马斯克可能是最安静的一个人——而这恰恰可能是他最精明的策略。
时间线上的关键事实是:马斯克的xAI早在2月23日就已经与五角大楼签署了协议,让Grok进入美军机密系统。而且xAI接受的条款是"所有合法用途",没有关于自主武器或大规模监控的任何限制——比OpenAI后来签的还要宽松,签得还要早。参议员Elizabeth Warren专门就这份2亿美元合同写信质询,指出这份合同"不知从哪儿凭空冒出来的"(came out of nowhere),质疑马斯克是否利用了他在政府中的特殊身份为xAI拿到合同。
但马斯克的操作非常老到。他没有开AMA,没有发长文解释,几乎什么都没说。在Anthropic被封杀之前几周,他在X上转发了五角大楼副部长的帖子,加了一句"Anthropic仇恨西方文明"。在Altman的AMA翻车后,他淡淡回了一句"我完全不信任OpenAI"。两个竞争对手各打五十大板,自己置身事外。

战争打响之后,马斯克的反应同样精准。他发了一个经典的表情包——不同程度充血的眼睛对比图,最下面一排写着"正在密切关注局势"——获得了大量传播。他还转发了X平台因战争而创下历史最高单日使用量的消息,配文"又一个纪录"。中东在打仗,导弹满天飞,他在那里晒成绩单。
还有一个被广泛传播的细节:开战前几天,耶路撒冷邮报让四个AI预测美国何时对伊朗动手。Grok给出了2月28日星期六的答案——而2月28日真的打了。马斯克立即转发,配文"预测未来是衡量智能的最佳标准"。一次预测对了能说明多少问题,这不好说——也许只是说明Grok的训练数据里有更多来自X平台的军事讨论内容。但马斯克不在乎答案是什么,他在乎的是这张截图能传播。3400万次浏览,Grok获得了最好的免费广告。
做个对比:Dario画了红线,被封杀了,但全世界用户用下载量给他投了票。Altman在Anthropic被封杀的当晚签约接盘,结果用户跑了、员工反了。马斯克比Altman签得更早、条款更宽松、完全没有红线——但他一句话没多说,反而什么都赢了。

四、AI走上战场:从工具到武器的跨越
在商业博弈的背后,一个更深层的现实正在展开。
2月28日,美国和以色列联合发动了代号"Epic Fury/Roaring Lion"的空袭行动,打击了伊朗多处目标,造成了包括伊朗最高领袖哈梅内伊在内的多名军政高层死亡。据《华尔街日报》、Axios和路透社等多家媒体援引知情人士报道,美国中央司令部在此次行动中使用了Anthropic的Claude进行情报评估、目标识别和战场场景模拟。
这里存在一个巨大的矛盾:封杀令和轰炸令之间只隔了几个小时。特朗普一边宣布停用Anthropic技术,一边美军还在用Claude来帮助分析空袭目标。之所以如此,是因为Claude已经深度嵌入了美军的机密系统中,替换过程需要几个月甚至更久。你下一道行政命令说不用了,但前线的系统不是一纸命令就能撤掉的。
这不是Claude第一次参与军事行动。此前《华尔街日报》已经报道,1月份美军特种部队抓捕委内瑞拉总统马杜罗的行动中,Claude就通过Anthropic与Palantir的合作接口嵌入了军方系统并发挥了作用。
Dario说"不能让AI来做生死决定",但AI已经在参与生死决定了。他造了一把刀说不能拿来伤人,但刀已经在别人手里了。

五、导弹击中数据中心:2026年的新型战争目标
3月1日,伊朗对美国及其盟国在中东的资产发射了大规模报复性导弹和无人机攻击。阿联酋国防部称,伊朗向其发射了2枚巡航导弹、165枚弹道导弹和超过540架无人机。
在这轮攻击中,AWS在阿联酋的数据中心被直接命中。根据AWS在其健康状态页面上发布的更新信息,"不明物体"击中了数据中心,引发了火灾。当地消防部门切断了设施电力以灭火。AWS在巴林的数据中心也因附近的无人机袭击而遭受了基础设施损坏。AWS后来确认,两处阿联酋设施被直接击中,巴林设施受到近距离爆炸的冲击波影响。
由于Claude运行在AWS之上,这意味着帮助分析轰炸目标的AI,其运行的服务器也被对方的导弹击中了。以前战争中被炸的是桥梁、机场、发电厂,2026年数据中心也成了军事目标。

正如华盛顿智库战略与国际研究中心此前就警告过的:在计算时代,对手国家不仅会瞄准管道、炼油厂和油田,还会瞄准数据中心、支撑算力的能源基础设施以及光纤枢纽。这个判断在上周还是理论分析,这周它有了第一个弹坑。
AWS建议受影响区域的客户"启动灾难恢复计划,将工作负载迁移到其他AWS区域,最好是在欧洲"。过去几年,海湾国家曾向硅谷承诺:把你们的数据、模型和芯片带来,我们提供稳定性。这个承诺在伊朗的导弹面前瞬间崩塌。全球万亿美元级别的AI基建,如果建在任何可能发生冲突的地方,保险怎么算、安全怎么保,已经从假设性问题变成了迫切的现实问题。

六、霍尔木兹海峡与更大的连锁反应
伊朗革命卫队宣布霍尔木兹海峡禁止通行。多家主要航运公司暂停了通过海峡的航行,油轮流量据报暴跌约70%,至少3艘船只遭到打击。全球约20%的石油供应经过这条水道,海峡关闭对能源市场和全球贸易的影响是即时且巨大的——黄金突破5400美元,原油单日暴涨约7%。
这再一次验证了"buy the invasion"(在入侵时买入)的市场规律。2022年俄乌战争期间,比特币先跌后涨了约40%。2025年以色列打击伊朗时,先跌后涨约25%。这次美国打伊朗,比特币最低跌到63000美元左右,之后又一度冲回70000美元附近。美股纳指期货盘前一度超跌2%,但经过波折后当日居然低开高走。历史再一次押韵。

七、三个男人,三种选择,三种结局
回过头来看这一周的全景,三家AI巨头的掌门人做出了截然不同的选择,也得到了截然不同的结果。
Dario Amodei选择了原则。他画了红线,拒绝了五角大楼的最后通牒,被总统封杀、被贴上"供应链风险"的标签。但用户用下载量给了他回应——Claude从App Store第42名冲到全美第一,竞争对手的员工都站出来替他说话。代价是失去了联邦合同和短期收入,但赢得了一种难以量化的信任和声誉。
Sam Altman选择了合同。他在Anthropic被封杀的当晚迅速签约,拿到了五角大楼的业务。但他自己承认交易"仓促"、"不好看"。结果QuitGPT运动因此获得了新的动力,超过150万人参与了某种形式的抵制行动,他自己的员工签了公开信反对他,安全研究人员公开称合同条款是"表面功夫"。他赢了合同,但正在失去信任。
马斯克选择了沉默。xAI比OpenAI签得更早、条件更宽松,完全没有红线。但他没有做AMA,没有发长文解释,只是偶尔发一个表情包或者一句短评。他的竞争对手一个被封杀、一个在翻车,而他安静地坐在旁边看戏,顺便让Grok的预测截图传遍全网。在这轮博弈中,什么都没说的人,反而什么都赢了。

八、接下来值得关注的三件事
这个故事远没有结束。接下来有几个关键节点值得持续关注。
第一是Anthropic的法律战。如果供应链风险认定在法庭上被推翻,将为所有科技公司提供一个保护伞——证明与政府的合同谈判中坚持自己的立场不会招致惩罚性后果。如果败诉,那么以后每一家公司在与政府谈判时都需要掂量:拒绝某个条款,会不会被扣上国家安全威胁的帽子?另外,如果五角大楼在替换Claude之后发现替代方案确实不够好用,事情可能会出现有趣的反转。

第二是QuitGPT运动的持久性。150万人的参与听起来很多,但ChatGPT全球用户超过2亿。运动的情绪是真实的,但留存率才是关键。三个月后还有多少人记得今天取消了订阅?消费者抵制运动的历史表明,持续性往往是最大的挑战。
第三是战争对AI基础设施的影响。这场冲突还在持续,特朗普表示可能持续4到5周。数据中心是否会再次成为攻击目标?全球范围内建设在地缘政治敏感区域的AI基础设施,其安全性和可保险性正在被重新评估。AWS数据中心被导弹击中这一事件,可能会深刻改变科技公司在全球部署基础设施的战略逻辑。

结语
一个AI在同一周内被总统封杀,被军队用于空袭行动,运行它的服务器被敌方导弹击中。造它的人说"不能拿来杀人",被自己的国家抛弃了,却被全世界的用户选择了。连夜接盘的人拿到了合同,却失去了用户和员工的信任。在旁边什么都没说的人,反而什么都赢了。
如果坚守原则的人被惩罚,趁火打劫的人被反噬,按兵不动的人获利最大——那么这个行业的游戏规则到底是谁在定?这个问题没有简单的答案,但它会在未来很长一段时间里持续拷问每一个参与AI竞赛的人。
三个月后回头看:Anthropic的官司赢了没有?五角大楼的态度有没有软化?QuitGPT还剩多少人?马斯克有没有翻车?到那时,这场现代寓言的寓意也许会更加清晰。