Anthropic硬刚五角大楼:AI第一次被拉进政治战壕

AI PM 编辑部 · 2026年03月06日 · 10 阅读 · AI/人工智能

正在加载视频...

视频章节

如果你还觉得AI只是技术问题,这周的事件会让你彻底清醒:Anthropic被美国政府点名“封杀”,OpenAI却转身签下五角大楼合同。AI不再只是模型优劣之争,而是正式卷入政治、军方与文化战争的中心。

Anthropic硬刚五角大楼:AI第一次被拉进政治战壕

如果你还觉得AI只是技术问题,这周的事件会让你彻底清醒:Anthropic被美国政府点名“封杀”,OpenAI却转身签下五角大楼合同。AI不再只是模型优劣之争,而是正式卷入政治、军方与文化战争的中心。

从“技术中立”到政治站队,AI突然变味了

在很长一段时间里,AI公司都努力维持一种姿态:我们只做技术,不碰政治。但这层薄膜,在最近被彻底撕开。《The Verge》直接点名:AI已经成了文化战争的一部分。而《AI Daily Brief》的判断更直白——AI过去只是“试探性地碰政治”,现在则是“明确、不可逆地成为政治议题”。

真正的转折点,来自Anthropic与美国国防部的正面冲突。Anthropic坚持两条红线:不做国内监控、不碰自主武器系统。这不是PR口号,而是直接写进合同谈判的限制条件。结果是,国防部长Pete Hexath震怒,威胁将Anthropic列为“供应链风险”。这个标签,历史上几乎从未用在美国本土科技公司身上。

同一时间,OpenAI宣布与国防部达成合作。对比太过刺眼:一家因为拒绝而被封杀,一家因为接受而被推进国家机器。AI第一次如此赤裸裸地被迫选边站。

Dario Amodei的1600字长文:失控,还是算计?

风暴的中心,是Anthropic CEO Dario Amodei那篇1600字的内部备忘录。文件被泄露后,他几乎在开头就开火,直指OpenAI的对外表述“具有误导性”,并强调“这正是他们真实面目的体现”。

Amodei并未披露OpenAI合同细节,但给出了一个极具杀伤力的判断:在军事场景中,仅靠模型拒答的“安全层”,可能“20%是真安全,80%只是安全表演”。原因很简单——军事与监控系统高度依赖上下文,而模型并不知道自己最终被嵌入到了什么系统里。

他还否认了“Anthropic拿到与OpenAI同样条件却主动拒绝”的说法,重申对法律授权监控与自主武器的根本性反对,并直接点名Sam Altman,指责对方与国防部存在误导性沟通和不诚信行为。

问题在于:这是一次精心计算的政治表态,还是CEO情绪失控的公开宣泄?连支持Anthropic的人都意见分裂。Axios披露,政府内部对这封信极为不满;而评论者也指出,语言的激烈程度可能反而削弱了Anthropic的道德高地。

OpenAI并非赢家,这是一场没有掌声的交易

从结果看,OpenAI拿下了合同,但并不轻松。Sam Altman本人事后承认:合同本身不后悔,但周五深夜发布公告的时机“过于仓促”,让OpenAI显得机会主义。这不是一句客套话——在当前的政治氛围下,任何军方合作都会被放大解读。

内部反应也并非铁板一块。虽然多数员工支持决策,但强化学习负责人Max Schwarzer宣布离职、转投Anthropic,尽管他给出的理由是“想回到个人研究”,时间点仍然耐人寻味。

更微妙的是,Anthropic的困境正在制造寒蝉效应。CNBC报道称,部分国防承包商已经要求员工停止使用Claude,甚至在正式认定之前就开始“主动切割”。这意味着,只要政治风险被点名,技术是否优秀已经不再重要。

连OpenAI董事会成员Paul Nakasone都公开警告:将“供应链风险”当作政治武器,会对国家利益造成长期伤害。这不是替Anthropic说话,而是对整个AI产业的预警。

当数据中心、能源和AI一起被政治化

这场冲突的外溢效应,已经蔓延到数据中心和能源。总统推动的大型科技公司承诺:自带电力、不转嫁成本给普通用户。七家科技巨头签字,特朗普将其包装为“对公众负责的好生意”。

对比之下,Bernie Sanders选择从“AI末日论”切入,反对数据中心扩张,却被批评忽视了现实的能源与算力需求。政治光谱两端,对AI的理解正在迅速固化为叙事,而不是技术判断。

与此同时,Max Tegmark发布“Pro-Human AI Declaration”,罕见地聚集了横跨左右翼的签署者。这说明一个事实:AI已经进入主流政治讨论区,不再是科技圈的内部争论。你不表态,政治也会替你表态。

总结

这次Anthropic与五角大楼的冲突,真正的意义不在于谁赢了合同,而在于一条分水岭已经出现:AI公司不再能躲在“我们只是做模型”的叙事背后。安全策略、部署方式、客户选择,都会被解读为政治立场。

对AI从业者来说,这意味着三件事:第一,技术决策正在变成政治风险;第二,“安全设计”是否只是表演,会被放到放大镜下审视;第三,你所在公司的客户名单,可能比模型参数更重要。

接下来值得思考的是:当政府、军方和公众都开始直接介入,AI公司还能否维持统一的全球产品策略?还是说,技术栈本身也将被迫分裂?这个问题,可能比下一个模型版本更重要。


关键词: Anthropic, OpenAI, AI政治化, AI安全, Claude

事实核查备注: 需要核查:1)Dario Amodei备忘录字数与具体引文;2)国防部长Pete Hexath的具体表态与职位;3)特朗普在Truth Social上的原话;4)OpenAI与国防部合作的公告时间;5)CNBC关于承包商停用Claude的报道细节。