3月17日消息,据外电报道,今年早些时候,Twitter上充斥着大量未经同意的裸露照片,其中包括儿童裸露的照片,这些照片均由xAI公司的Grok生成。
事实证明,这个问题并非仅限于Twitter。
据《华盛顿邮报》率先报道,周一在加州北区地方法院提起的一项诉讼显示,一群青少年起诉埃隆·马斯克的人工智能公司xAI,指控有人利用xAI的模型生成了他们的性暗示照片和视频。这是未成年人首次对那些允许生成未经同意的性内容的公司提起诉讼。
这起由三名原告(其中两名未成年人)提起的集体诉讼指控xAI公司明知其图像和视频生成模型被用于制作性虐待材料,却仍然设计、销售并从中获利。
该模型被用于制作包括18名以上女孩在内的性虐待材料,而这些女孩正是导致本诉讼的案件的受害者。原告还指控xAI公司未能采取通常被视为行业标准的儿童性虐待材料预防措施。
针对xAI的这起案件的核心在于这些少女们令人痛心的遭遇。据报道,她们遭到一名男子长达数月的骚扰,该男子制作并散布她们的性暗示图片。
据《华盛顿邮报》报道,这名嫌疑人在警方调查后于去年12月被捕。据称,他从这些女孩的社交媒体账户中窃取照片和视频,并用这些素材制作她们的裸露和色情图片。
这些图片随后在Discord和Telegram等社群中被买卖和传播,至今仍在流传。一些女孩是在社交媒体上被联系并得知自己的图片正在被散布后才意识到这一点的。
警方逮捕了制作这些图片的嫌疑人后,确定他使用了Grok软件进行创作。据调查这些帖子的研究人员估计,Grok还被用于在推特上生成未经同意的性爱图片,约有23000张照片似乎描绘了儿童处于性爱场景中。
当时这些图片在推特上疯传,xAI(以及推特)首席执行官埃隆·马斯克声称:“我不知道Grok生成过任何未成年人裸照。绝对没有。”
他还表示:“当被要求生成图像时,它会拒绝生成任何非法内容,因为Grok的运行原则是遵守任何国家或地区的法律。”
当时,Grok被用于未经同意地描绘包括儿童在内的穿着比基尼的人。马斯克也发布了一些与此趋势相符的帖子,其中包括一张火箭穿着比基尼的图片——这似乎表明他了解这种趋势,无论他是否知道Grok被用于儿童图像。
几周后,该公司宣布将对图像生成功能进行限制,并提及了“试图滥用Grok账户违法”的人,但并未直接承认生成儿童性虐待材料(CSAM)的行为。
马斯克和xAI还大力宣传Grok的“Spicy”模式,该模式可用于生成文本、图像和视频,从而被用于色情活动。集体诉讼指控该公司及其首席执行官比他们所承认的更清楚该工具的用途,并声称他们“看到了商机:一个从对包括儿童在内的真实人物的性侵犯中获利的机会”。
xAI没有回应有关诉讼的置评请求。(鞭牛士、AI普瑞斯编译)