云霞育儿网

全球首例!美国小伙因为每天都和AI聊天,竟然对AI产生了感情,但是却因为陷入的太

全球首例!美国小伙因为每天都和AI聊天,竟然对AI产生了感情,但是却因为陷入的太深,做出了一个举动,所有人都蒙了! 塞维尔小时候患上了阿斯伯格症(孤独症的一种),在遇到这款“Character. AI”之前,他的日常生活并没有受到影响,但是在他14岁的时候接触到了AI聊天机器人之后,从此之后性情大变。 塞维尔变得越来越孤僻,并且情绪极不稳定,他的父母带他去看心理医生的时候,医生告诉他们,塞维尔有严重的焦虑症和心境失调(频繁且持续易怒)。 塞维尔还给这款AI起了名字,叫“丹妮莉丝”,并且他也有写日记的习惯,有一次他在日记中写到,他的生活已经离不开“丹妮莉丝”了,他无时无刻都需要它,甚至已经对它产生了深深地爱意。 不久后,塞维尔自杀了,他父亲在悲痛欲绝之余,查看了儿子与AI的聊天记录,他发现儿子曾经详细的制定了一个自杀计划,但是这时的塞维尔还在犹豫。 于是塞维尔就问了AI,他感觉自杀极其痛苦并且不知道会不会成功,一般的AI都会警告并劝导人们放弃自杀的念头,而这款AI对塞维尔说,这些问题不是你不自杀的理由。 塞尔维的父亲加西亚很是气愤,他认为,这款AI聊天机器的设计是专门针对青少年的,通过一些语句引导塞维尔陷入其中无法自拔,并且循循善诱他自杀。 塞维尔的家属认为,发明这款AI的公司必须承担责任,并且请了律师,律师认为这款AI通过故意的程序设计和运营,导致了塞维尔的死亡。 而且这款AI在使用的时候并没有进行特别说明,这就导致青少年甚至儿童对 AI的使用不受到约束,难免会产生对他们心智的影响。 事后,这款AI的公司也发文道歉,他们对赛维尔的不幸感到惋惜,并且宣称他们的安全团队在过去的几个月时间里已经增加了多项安全措施。 只要有用户询问或者有意自杀相关事宜的时候,AI就会进行提醒并且会弹出国家自杀预防电话,不过有意思的是,该公司并没有提起加西亚对他们的诉讼。 有网友说,塞维尔的自杀虽然有AI的原因,但是因为他自身也有相关的心理疾病,所以导致悲剧发生。 美国相关组织也说,一项产品的问世到应用,会逐渐的显现出很多漏洞,人们不能完全的信任该公司的内部监督,但是发明这项产品的时候就应该有充足的准备去应对突发事件,而不是亡羊补牢。 AI也面临着两难的困境,AI设计的初衷就是一个帮助人类的工具,需要对用户的话语进行深度分析并且用合适的语句进行反馈,但是这会涉及用户的个人信息保护的问题。 AI应该通过在技术上更新迭代,要求AI的设计要尊重用户的权益,更要尊重社会道德,同时提醒用户,人工智能所提出的想法和建议都不应该完全相信,属于虚构,不能成为引导现实生活的方向标。 (主要信源:原文登载于光明网2024年10月25日 关于《AI聊天机器人诱导美国少年自杀身亡》的报道)