全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 麻烦看官老爷们右上角点击一下“关注”,既方便您进行讨论和分享,又能给您带来不一样的参与感,感谢您的支持! 最近科技圈发生了一件挺震撼的事,超过3000名全球顶尖科学家集体站出来,联名要求暂停研发比人类更聪明的AI系统,这个数字还在持续增长,截至10月23日中午已经有3193人签名了。 这些签名的都不是普通人,苹果创始人沃兹尼亚克、AI教父辛顿、中国科学院院士姚期智,这些平时各自忙着自己研究的大佬们,现在居然能为了同一件事达成共识。 要知道,学术圈向来各有各的观点,能让这么多人同时发声,说明事态真的很严峻了。 特别值得注意的是辛顿的转变,这位深度学习领域的奠基人物,前些年还一直在推动AI技术发展,现在却成了最积极呼吁暂停的人之一。 他直接点明了核心风险:超级智能一旦出现,会慢慢摸清人类的弱点,学会操纵甚至欺骗我们,更可怕的是,它可能会让负责监管它的人根本下不了关闭它的决心。 这不是科幻小说里的情节,现在的AI已经能独立完成科研论文框架、帮律师整理案件、辅助医生分析影像。 GPT-4的能力已经开始触及人类的高阶思维领域,如果继续这样发展下去,等到真正的超级智能出现时,我们根本没有应对预案。 高盛去年的一份报告显示,全球大约3亿个全职岗位可能被AI取代,这次不只是工厂流水线,连律师助理、金融分析师、初级程序员这些看起来稳定的白领工作都在名单上。 很多人觉得自己从事的是需要思考和判断的工作,应该不会受影响,但现实可能比想象中残酷得多。 更深层的问题在于权力的转移,现在能开发高级AI的基本都是OpenAI、谷歌、微软这些科技巨头,他们掌握着算法和数据,实际上也就掌握着信息分发的权力。 我们每天刷到什么内容、接收什么观点,很大程度上都是算法决定的,时间久了,人会不自觉地被这套系统塑造,逐渐失去独立思考的习惯。 深度伪造技术的成熟让这个问题变得更加棘手,用AI模仿一个人的声音、表情、说话方式,技术门槛已经低到普通人都能操作,当我们连真假都分辨不清的时候,谈何保持理性判断和自主意识。 科学家们提到的极端风险听起来夸张,但并非杞人忧天,中科院的曾毅研究员说得很直白,我们到现在都没找到确保超级智能安全的方法,在这种情况下继续全速前进,就像开着一辆刹车失灵的车往山下冲。 矛盾的地方在于,一边是科学家们紧急呼吁踩刹车,另一边科技公司却在拼命踩油门。 Meta今年6月专门成立了超级智能实验室,OpenAI和马斯克的xAI也在竞相研发,商业利益的驱动力实在太强了,没人愿意在这场竞赛中落后。 美国皮尤研究所的调查数据很能说明问题,只有5%的美国人支持现在这样自由开发AI,超过七成的人要求严格监管,六成以上认为在确认安全之前根本不该碰超级智能。 普通民众的直觉其实是对的,只是他们的声音在资本和技术的洪流中显得太微弱了。 中国科学家也参与了这次联名,姚期智院士、清华大学的薛澜院长都在名单里,这说明在AI安全这个问题上,全世界的科研人员想法是一致的,技术本身没有国界,带来的风险也是全人类共同面对的。 这次集体发声的意义不在于真的能让所有研发停下来,而是要给这个狂奔的领域敲响警钟,互联网刚发展时也出现过各种混乱,后来靠着逐步完善的法律法规才规范下来。 AI现在正处在这个关键节点,技术跑得太快,规则完全跟不上,如果现在不重视,等出了大问题再补救就来不及了。 我们创造AI的初衷是让它服务人类,提高生活质量和工作效率,如果最后反而让人类陷入被动甚至危险的境地,那就完全违背了科技发展的本意。 这3000多位科学家用自己的声誉和专业判断告诉我们,该停下来好好想想方向了,发展很重要,但活着更重要。 对此大家有什么想说的呢?欢迎在评论区留言讨论,说出您的想法!
