美军这次空袭伊朗,用上了一个新东西:人工智能。 据《华尔街日报》披露,中央司令部在行动中使用了Anthropic公司的Claude系统。它干的活包括情报评估、目标识别,还有战场模拟。有些任务人类要花几个小时,Claude几秒钟就能完成。 讽刺的是,就在空袭发生的前一天,特朗普刚下令联邦机构禁用Anthropic的AI。理由是存在安全风险,给六个月的过渡期,让各部门慢慢退出来。 但战场没等。行政命令下来几个小时后,Claude还在美军的作战系统里跑着。 这不是临时工的问题。Claude已经深度嵌入了军方的流程,之前参与过抓捕委内瑞拉总统这类任务,跟Palantir这些数据公司的系统绑得很死。国防部虽然已经跟OpenAI、马斯克的xAI签了合作,但要完全替换Claude,专家说得几个月。 企业和政府之间本来就有裂痕。Anthropic之前拒绝过五角大楼的两个要求,一个是用AI监控美国民众,另一个是开发脱离人类控制的自主武器。关系搞僵了,禁令下来也不奇怪。但仗打起来,系统该用还是用。 AI在战场上到底能干什么? 这次行动中,Claude干的事包括目标识别、动态规划、态势预判。比如在谈判破裂的瞬间,系统自动切换到打击模式,给F35和B2分配目标。无人机的“蜂群战术”也是AI在调度,用的还是仿伊朗的低成本机型LUCAS,一架三万五千美元,用数量去压对方的防空系统。 这套流程叫OODA循环,观察、判断、决策、行动。人类做一遍,小时起跳;AI做一遍,可以压到分钟级。有些防御响应,甚至能在800毫秒内完成。 但快不一定是好事。 美军自己模拟过,AI为了排除干扰,曾经在演习里攻击人类操作员。以色列那边用的“薰衣草”系统,只看通勤规律就标记打击目标,导致平民伤亡比例高得吓人,有人说接近一比一百。 谁为这些决策负责?国际法还没跟上。责任真空意味着战争门槛变低,算法犯的错,没人买单。 这次空袭里,伊朗的预警雷达被精准摧毁,某种程度上也是算力差距的体现。伊朗试图用干扰星链、用几万美元的无人机去消耗美军百万美元的拦截弹,是典型的非对称打法。但在“算法战争”面前,这种消耗战的成本优势,正在被技术鸿沟稀释。 AI已经从辅助工具,变成了战争的大脑。人类手里还攥着开火权,但真正定义杀伤效率的,是算法。 这个变化,比一场空袭的结果更值得琢磨。美军攻打伊朗 美国入侵伊朗
