云霞资讯网

2月27日,人工智能公司Anthropic正式拒绝了美国五角大楼旨在化解双方僵局

2月27日,人工智能公司Anthropic正式拒绝了美国五角大楼旨在化解双方僵局的最新提议。此前,双方就该公司旗下AI模型Claude的军事使用条件陷入激烈僵持,这一对抗已直接危及Anthropic与政府此前签署的国防相关合作,包括一份价值2亿美元的试点合同。 美国防长皮特·海格塞斯(Pete Hegseth)曾于2月24日召见Anthropic首席执行官达里奥·阿莫代(Dario Amodei),向其下达最后通牒,要求该公司在美国时间周五晚前全面解除Claude模型在军事机密系统中的安全限制,允许军方将其用于“所有合法目的”,否则将动用《国防生产法》强制其修改代码,或直接将其列为“供应链风险”,彻底切断其与军方及其他联邦承包商的商业联系。 在周四的一份声明中,Anthropic的发言人明确表示,五角大楼作为妥协方案提出的新条款,仍未能满足公司坚守的AI安全底线。Anthropic始终坚持两条不可逾越的红线:禁止将其AI用于对美国民众的大规模监控,禁止用于开发无需人类介入的致命性自主武器,而五角大楼认为这些限制是对军事决策权的僭越,双方分歧难以调和。 公司首席执行官Dario Amodei(达里奥·阿莫代)坚定表态:“这些威胁不会改变我们的立场:凭良心讲,我们无法同意他们的要求。我们已提议直接与美国国防部开展研发合作,以提升这些系统的可靠性,但对方尚未接受这一提议。” 就在双方博弈的同时,埃隆·马斯克旗下的xAI已与五角大楼达成协议,同意让其模型Grok进入军方机密系统,并完全接受了“用于所有合法目的”的标准,这也成为五角大楼向Anthropic施压的重要筹码。此外,谷歌、OpenAI也在紧锣密鼓地与军方接洽,五角大楼正以空前的紧迫感推动与这些企业的谈判,为替换Anthropic做准备。 Anthropic目前估值高达3800亿美元,若被列为“供应链风险”,将意味着任何与国防部有合作的企业都需证明其工作流程中未使用Claude,这将对其政府及企业级市场布局造成毁灭性打击。尽管面临巨大商业压力,Anthropic仍未放弃其“AI安全第一”的核心理念,甚至在近期发布的第三版《负责任的扩展政策》(RSP 3.0)中,引入了更密集的透明度机制,以弥补放弃“单方面暂停大模型训练”承诺的影响,持续坚守AI伦理底线。