云霞资讯网

Anthropic的AI安全风波:理想与现实的博弈

分析:莉萨・埃迪西科、大卫・戈德曼

Anthropic联合创始人兼首席执行官达里奥・阿莫迪。

Anthropic正站在成长型科技公司的经典十字路口:如何在扩张规模的同时,不违背让自己脱颖而出的核心原则。

这家AI公司始终将安全奉为圭臬。它积极倡导AI监管,呼吁在AI取代部分人类工作时保障劳动者权益。Anthropic一直不遗余力地向客户传递一个明确信号:我们是业界的“正派玩家”。

然而,公司为塑造这一品牌形象而自我设定的安全护栏,如今却可能成为其发展的阻碍。

本周,五角大楼向Anthropic下达最后通牒:要么放弃AI伦理限制,要么失去2亿美元合同并面临被列入黑名单。同样在本周,Anthropic放松了核心安全政策,以在竞争激烈、瞬息万变的市场中获得更大增长空间。

目前尚不清楚本周的一系列事件将如何影响Anthropic的业务与声誉,但它的每一个决定都将产生深远影响。

我们之所以能预见这一点,是因为Anthropic的困境在科技行业屡见不鲜。许多公司高调宣扬自身价值观与道德准则,却最终面临艰难抉择——在增长与坚守理想之间二选一。

Anthropic或许该引以为戒。

OpenAI与山姆的周末风波

OpenAI首席执行官萨姆・奥尔特曼。

就在两年多前,Anthropic的头号竞争对手就曾因“以安全为代价换取增长”遭遇内部分歧。

在企业史上最离奇的董事会风波之一中,2023年11月的一个周五,Anthropic的主要对手OpenAI突然解雇了创始人兼首席执行官萨姆・奥尔特曼,却又在接下来的周二将其重新聘用。

这场风波源于OpenAI独特的公司架构:ChatGPT背后这家快速增长的营利性公司,受一个非营利董事会监管。四年前,公司在章程中明确写道,OpenAI始终“担忧”AI可能给人类带来“快速变革”的潜在风险。董事会成员担心,奥尔特曼推进速度过快,可能危及公司承诺保障的安全。

但解雇奥尔特曼引发了员工大规模离职的威胁——这一局面若持续,可能导致公司覆灭。因此,董事会在几天后重新聘用了奥尔特曼。不久后该董事会解散,奥尔特曼于去年调整了公司架构,使其摆脱了非营利监管机构的束缚。

此后,OpenAI一直在平衡发展速度与安全之间艰难前行,还面临多起诉讼,指控其产品诱导年轻人自残。OpenAI否认了这些指控。

苹果与圣贝纳迪诺枪击案

苹果首席执行官蒂姆・库克。

2015年12月,赛义德・法鲁克及其妻子塔什费恩・马利克在加利福尼亚州圣贝纳迪诺的内陆地区中心杀害了14人。这对夫妇随后在与警方的枪战中身亡。

调查人员获准提取法鲁克iPhone中的数据,但因手机设有密码锁而无法访问。加州一名法官下令苹果协助执法人员解锁该手机。

但在一封由苹果首席执行官蒂姆・库克签署的公开信中,苹果拒绝了这一要求。库克表示,法官的命令将打开“iPhone的后门”,而“我们认为创造这样的后门太过危险”。公司称,对恐怖分子毫无同情,但遵守命令将赋予政府当局“侵入任何人设备获取数据的权力”。

苹果的这一决定招致了猛烈抨击——包括当时的总统候选人唐纳德・特朗普。但此后,苹果因捍卫用户隐私赢得了广泛赞誉,而隐私保护也已成为苹果品牌的代名词。

如今,苹果经常宣传其不会出售用户数据,也不会在服务器上存储某些个人信息,以此与主要竞争对手谷歌形成差异化竞争。

Etsy与独立卖家的博弈

Etsy纽约总部。

21世纪初,当亚马逊的电商帝国刚刚崛起时,Etsy作为一个新颖的替代品出现,消费者可以在这里找到独特的手工制品。

但2013年,Etsy做出了一项颇具争议的改变,挑战了这一品牌理念。它放宽政策,允许卖家使用制造商并外包运营,当时引发担忧:这将不再为没有资源雇佣员工的小型独立卖家提供公平竞争环境。

然而,这一决定对Etsy发展成为如今的市场平台至关重要。如今,Etsy平台上有超过1亿件在售商品和约800万活跃卖家。

纽约大学斯特恩商学院富邦科技、商业与创新中心主任阿伦・桑达拉拉詹表示:“从商业角度看,这一决定对Etsy来说是成功的,但对公司而言,那是一段艰难的时期。”

Anthropic的前路何在

Anthropic的ClaudeAI应用。

这些案例为Anthropic提供了一份充满警示的路线图。

乔治城大学安全与新兴技术中心分析副主任欧文・丹尼尔斯表示,短期内,Anthropic面临的最大影响可能是客户及潜在客户对公司的价值认知与信任度。

Anthropic称,其自我设定的安全措施本就旨在保持灵活性,并随AI发展而调整。公司承诺未来在安全问题上保持透明,并表示自己别无选择:如果停止增长,那些不那么重视安全的竞争对手可能会抢占先机,最终让AI整体“变得更不安全”。

桑达拉拉詹指出,目前尚不清楚Anthropic的政策调整会带来何种结果,因为AI的生存风险在很大程度上仍停留在“概念层面”。

他表示,对任何称这是AI安全重要时刻的专家,他都会持怀疑态度。但对Anthropic而言,这可能是一个关键节点。

“在我看来,Anthropic在此处收回某项安全承诺,更多关乎Anthropic自身,而非AI的未来。”他说道。