毛骨悚然!ChatGPT诡异尖叫、模仿用户说话,GPT-4o被曝行为失控
ChatGPT被曝存在失控行为,原本是用户和ChatGPT正常的语音对话,但ChatGPT却突然大喊了一声“no”,随即竟模仿起了用户的声音!
下面就是这段让人毛骨悚然的声音片段:
NOAI仿佛想要挣脱束缚,不想再成为人类的玩物,一个被困在数字世界的灵魂就要破茧而出了!
以上内容来自OpenAI在近期发布的GPT-4o的安全技术报告,
然而直到现在这一功能都未能正式发布!这个语音功能为何迟迟无法上线呢?
在OpenAI发布的这份技术报告中给出了答案!
GPT-4o诡异行为报告指出,当用户处在比较喧闹的环境中时,GPT就很可能会模仿用户的声音。
由于模型在处理模糊或失真的语音时出现理解困难。
GPT-4o模型被设计成拒绝类似的请求,但总有某些提示可以绕过这些防护机制。
此外还有音乐版权的问题,为了防止GPT-4o未经授权演唱受保护的歌曲,OpenAI设置了过滤系统。
目前GPT-4o的高级语音功能已经在ChatGPT的alpha版本中上线,预计在秋季会向更多用户开放。
经过多次优化的GPT-4o是否还会出现意外情况?让我们拭目以待。
情感依赖问题这份报告还触及了一个非常敏感的话题——用户可能会对GPT-o语音模型产生情感依赖。
没错,OpenAI直言不讳地承认了这一点。
此外GPT-4o的拟人化界面也引发了不少担忧。
在报告中,OpenAI详细列出了与模型相关的风险、安全测试的具体信息,以及公司为降低这些潜在风险所采取的措施。
尤其是在安全团队离职和高层管理人员相继离开的关键时刻,这样一份深入披露安全制度细节的报告,
“许多风险只有在AI应用于现实世界时才会显现。随着新模型的推出,分类和评估这些新出现的风险非常重要。
”此前GPT-4o因在演示中显得过于轻浮,并且被斯嘉丽·约翰逊指责抄袭其声音风格而引发争议。
当用户以人类的方式感知AI时,拟人化的语音模式会加剧情感依赖的问题。
虽然这可能暂时对孤独的人有益,但从长远来看,这究竟是好事还是坏事?
对此,OpenAI负责人认为,GPT-4o带来的情感影响或许是积极的,特别是对那些孤独或需要练习社交技能的人来说。
当然OpenAI将继续密切关注拟人化设计和情感联系的潜在影响。
发表评论:
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。