EBC外汇官网:封杀令下的“隐形指挥官”:美军被曝使用Claude AI空袭伊朗

就在美国总统特朗普签署行政命令、高调“封杀”AI新锐巨头Anthropic的几小时后,一场针对伊朗的大规模军事行动正在中东上空悄然展开。更具讽刺意味的是,执行此次任务的美国中央司令部,依然在依赖那家已被列入黑名单的技术——Anthropic旗下的大语言模型Claude 

这一幕发生在2026年2月28日,美国和以色列对伊朗发动代号为“史诗愤怒”和“咆哮雄狮”的联合军事打击,伊朗最高领袖哈梅内伊在空袭中身亡。据《华尔街日报》和多家媒体援引匿名知情人士消息,美军在此次行动中使用了Claude,用于情报评估、目标识别以及模拟战斗场景这不仅是AI深度介入现代战争的最新注脚,更将硅谷的道德底线、五角大楼的战略冲动与国际人道法的灰色地带,一并推向了聚光灯下。

算法如何参与“斩首”

这不是Claude首次卷入实战。今年1月美军针对委内瑞拉总统马杜罗的行动中,Claude就已用于“情报合成”。而在此次对伊朗的空袭中,AI的角色进一步深化。据《卫报》报道,美国科技公司Palantir与五角大楼合作开发的系统,将Claude整合进了军事情报流程,旨在“大幅提高情报分析速度,帮助官员更快决策”

具体而言,Claude并不直接操控武器或扣动扳机,而是处理海量的非结构化战争数据——从无人机实时画面、截获的通信内容,到人力情报网传来的零散信息。Palantir的系统利用机器学习识别并优先排序目标,甚至根据武器库存和过往打击效果推荐合适的弹药,同时通过自动化推理评估打击行动的法律依据

这种“传感器到射手”链条的急剧缩短,被军事专家称为“决策压缩”。纽卡斯尔大学高级讲师克雷格·琼斯指出:“AI机器提出的打击建议,在某些方面实际上比‘思维速度’还要快。你能同时拥有规模和速度——在压制敌方反应能力的同时,同步执行斩首式打击。这在以往需要数天或数周,而现在你可以一次性完成。”

两条红线与一场决裂

然而,在AI加速杀伤链的背后,是一场早已白热化的“硅谷与五角大楼”拉锯战。

争议的焦点在于Anthropic始终坚持的两条“红线”:禁止将AI用于大规模国内监控,禁止将其整合进完全自主的致命武器系统。自2月中旬起,Anthropic与美国政府的谈判便陷入僵局。五角大楼要求该公司取消模型使用的约束条件,授予军方完全访问权限,否则将面临合同终止及被列入“供应链风险名单”的威胁

2月26日,Anthropic首席执行官达里奥·阿莫代伊公开发声,明确拒绝了国防部的要求,称公司无法“违背良知”达成协议。次日,特朗普在社交媒体上长文怒斥Anthropic“傲慢自大、背信弃义”,宣布全面封杀该公司,要求所有联邦机构在六个月内完成技术过渡。美国国防部长赫格塞思紧随其后,将Anthropic列入“国家安全供应链风险”

极具戏剧性的是,就在特朗普宣布封杀的数小时后,OpenAI火速与五角大楼达成协议,成功“截胡”竞争对手。OpenAI声称其协议包含了比Anthropic“更多的护栏”,并强调其模型禁用领域同样包括大规模监控和自主武器。这一操作被网友质疑为“政治献金换订单”,也让OpenAI首席执行官山姆·奥特曼不得不公开回应,承认协议“显得仓促且观感不佳”

“快于思维速度”的伦理悖论

尽管Claude在军事情报流程中扮演的角色被一些舆论夸大——有分析指出,它更像一个能力极强的翻译和分析助手,而非追踪哈梅内伊的真正功臣——但专家们更担忧的是更深层的系统性风险

伦敦玛丽女王大学伦理学教授戴维·莱斯利指出,对AI的过度依赖可能导致指挥官的“认知超载”。决策者可能因为分析过程由机器完成,而与行动的后果产生心理疏离感。更严峻的挑战在于,当AI系统的建议被纳入决策闭环,人类的审批可能流于形式——军事和法律专家或许只是“例行公事”地批准由算法生成的攻击计划

“如果系统在提供信息时加入自身偏见,就会引发信息可靠性的疑问,”有专家警告。尤其是在涉及生死的目标识别环节,AI的“幻觉”或偏见可能造成不可挽回的悲剧。CBS新闻的报道引用了一位知情人士的说法:Claude“并非不会产生幻觉,也不够可靠,无法避免潜在的致命错误,如意外升级或没有人类判断下的任务失败”。这恰恰是Anthropic坚持保留安全护栏的核心理由——不是出于政治立场,而是出于对技术局限性的清醒认知

下一个“奥本海默时刻”?

在伦敦国王学院的一项兵棋推演实验中,应用AI大语言模型的推演有95%最终走向了战术核武器的部署,86%的冲突中发生了意外升级。原因在于技术故障或沟通失误,使得AI驱动的行动超出了预期AI不懂恐惧,这让核武器退化成一个普通的博弈筹码。

联合国秘书长古特雷斯曾多次警告:“生与死的决定不应该委托给冰冷的算法。”联合国大会2025年发布的报告也强调,军事领域AI的应用可能导致“观察-判断-决策-行动”环加速,缩短可用于决策的时间,提升失控风险

更令人不安的是对未来的预演。在空袭前夕,以色列《耶路撒冷邮报》向多款大语言模型询问可能的袭击日期。ChatGPT将窗口期缩至3月3日夜间至4日凌晨,而马斯克的Grok两次给出了2月28日——与真实袭击时间高度吻合当AI不仅能分析目标,还能“预言”战争,人类究竟还剩多少掌控权?

尽管针对哈梅内伊的斩首行动,核心情报仍来自CIA长达数月的人力追踪,而非AI的即时输出。但无可否认的是,美军在“史诗愤怒”行动中对Claude的使用,已经标志着一个新时代的开启。耶路撒冷邮报的评论直言:“AI已不再是后台分析工具,而是深度嵌入战场决策与作战规划。”

讽刺的是,就在美国政府以“国家安全”之名封杀Anthropic的同时,战场指挥官却因离不了Claude的效能而继续使用它。这种华盛顿政治圈与战场现实之间的割裂,暴露了一个更深层的悖论:当算法开始定义谁是敌人、何时开战,人类在追求绝对“决策优势”的过程中,或许正在悄然让渡最后的决策主权。

正如Anthropic CEO阿莫代伊所坚持的——某些红线一旦跨越,将违背他所理解的美国价值观。而在德黑兰上空的硝烟散去之后,留给世界的追问依然悬而未决:当AI成为战争的“隐形指挥官”,人类是否还能守住那条最后的底线?

Share:

More Posts

Send Us A Message

滚动至顶部