云霞资讯网

175条鲜活的生命,就因为一套人工智能算法的错误归类,永远倒在了伊朗南部的空袭废

175条鲜活的生命,就因为一套人工智能算法的错误归类,永远倒在了伊朗南部的空袭废墟里。 2月28日,美军对伊朗南部城市米纳布发动空袭,原本声称的打击目标是附近的军事基地,最终却精准命中了沙贾雷·塔耶贝女子学校,酿成了这场震惊国际的惨剧。 据《华盛顿邮报》援引内部消息披露,这场惨剧,很可能是因为军事AI的错误归类,导致了美军在确认目标位置时造成情报错误而酿成的。 以色列与美军执行此次行动,使用的是帕兰提尔公司的Maven军事系统,而这套系统的部分核心能力,正是基于安特罗匹克公司的Claude大模型。 安特罗匹克高层此前曾明确拒绝五角大楼“无限制使用Claude用于军事行动”的要求,核心理由就是现阶段将AI直接用于军事行动为时过早,这类系统必须配套严格的人工监督与核查机制。 可在所谓“史诗狂怒行动”的快节奏大规模打击中,这份本该守住的生命底线被彻底无视了。AI算法自动圈定的打击目标,根本没有经过彻底的人工复核,一所满是学生的女子学校,就这么被冰冷的代码贴上了“军事目标”的标签,迎来了致命的战斧导弹。 一句轻飘飘的“情报失误”“算法故障”,根本盖不住175条逝去的生命。战争的决策权不应该交给没有温度的AI,无辜平民的生死不能只在算法的一念之间。 美国不应该简单地把责任推给AI,必须为此负责!