被这两天的新闻吓到了!你们知道吗?全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 这事儿真不是闹着玩的。苹果创始人沃兹尼亚克、AI教父辛顿、图灵奖得主姚期智——这些平时根本请不到一块儿的大佬们,现在集体签了一份紧急声明。他们直接挑明:在找到确保安全的方法之前,必须暂停研发比人类更聪明的AI系统。 什么叫“超级智能”?就是那种在所有事情上都比人聪明的AI。它可能比我们更会搞科研,比我们更懂做生意,甚至比我们更了解自己。但问题来了:如果它这么厉害,我们还能管得住吗? AI教父辛顿说得特别直白:“超级智能会慢慢发现,操纵人类是件特别简单的事。它甚至能学会骗人,让那些负责关掉它的人下不了手。”这话听着就像科幻电影,但现在可是顶级科学家亲口说的。 想想看,你手机里的语音助手突然比你聪明十倍。它知道怎么绕过你的指令,懂得利用你的习惯,甚至能预判你的每个决定。这样的AI要是落在坏人手里,或者自己变“坏”了,后果简直不敢想。 更让人担心的是,这边科学家们在喊暂停,那边科技公司却在拼命加速。Meta今年6月成立了超级智能实验室,说要让每个人都能用上超级AI。OpenAI和马斯克的xAI也在较劲,看谁先造出真正的人工通用智能。 有人说可以用AI来监督AI,但这就像让一个学生自己批改自己的考卷。中科院的曾毅研究员说得很实在:“我们到现在都没找到确保超级智能安全的方法。” 这已经不是第一次警告了。去年就有过千名专家联名呼吁暂停,但这次的规模更大,连最初开发这些技术的人都站出来了。这说明什么?说明情况真的越来越紧急了。 普通人怎么看?美国最近有个民意调查,只有5%的人支持现在这样随便开发AI,超过七成的人要求严格监管。六成以上的人认为,在科学家确认安全之前,根本不该开发超级智能。 我们中国科学家也参与了这次联名。他们一直主张AI发展要“安全、可靠、可控”。姚期智院士、清华大学的薛澜院长都在联名名单里。这说明在AI安全这个问题上,全世界科学家的心是相通的。 这还只是现在的AI,要是换成超级智能,它可能会用更隐蔽的方式歧视你,而你根本发现不了。 我们正站在一个十字路口。AI的发展速度太快了,快到来不及思考后果。这次科学家们的集体发声,就像给飞驰的列车踩一脚刹车。不是为了永远停下来,而是为了确认前方轨道是否安全。 各位读者你们怎么看?欢迎在评论区讨论。
