本文内容均是根据权威材料,结合个人观点撰写的原创内容,辛苦各位看官支持。
最近打开手机,刷十条视频能看见八条聊ChatGPT,写报告、编文案、甚至陪人聊天,这东西好像啥都能干。
网上天天有人讨论“AI要取代人类”,热闹得不行。
但就在这股热潮里,图灵奖得主杨立昆站出来泼了盆冷水他说这些大语言模型根本不算智能,顶多是“高级文字游戏”。
今天咱们就聊聊,这位AI大佬为啥这么说,大语言模型到底差在哪儿。
AI热潮背后的“老故事”杨立昆在AI圈的地位不用多说,深度学习三巨头之一,拿过图灵奖,算是看着AI长大的。
他这话可不是随口说的,毕竟见过太多“热闹之后是冷清”。
早在上世纪,AI就经历过两次大起大落。
第一次是50年代,那会儿科学家觉得“让机器思考”不是难事,搞符号主义AI,想让机器像人一样推理。
结果呢?机器连“苹果掉地上”这种简单常识都搞不懂,折腾十几年,钱烧完了,热潮退了,第一次AI寒冬来了。

第二次更热闹,80年代专家系统火了,以为把专家知识输进机器,机器就能当医生、当工程师。
可实际用起来,稍微换个问题机器就懵,维护成本高得吓人。
到90年代,投资撤了,第二次寒冬又到了。
现在ChatGPT带火的大语言模型,看着挺新鲜,其实有点像“新瓶装旧酒”。
杨立昆说,现在的热闹和以前太像了资本追着热点跑,媒体吹着“智能革命”,可技术本身到底有没有突破,得打个问号。
流畅的文字≠聪明的大脑,大语言模型缺了啥很多人觉得ChatGPT智能,是因为它说话太流畅了。
写邮件、写代码,甚至写诗,都像模像样,但杨立昆说,这流畅度就是个“障眼法”。
大语言模型的原理,说白了就是“猜词游戏”。
给它一句话,它根据训练数据里的统计规律,猜下一个词该是啥。
猜的次数多了,就显得会说话。

但它根本不懂自己在说啥,就像鹦鹉学舌,说得再像也不知道意思。
去年有个实验挺有意思,让GPT算“‘大象’这个词有几个字母”。
按理说这是小学生水平的题,结果GPT愣是答错了。
为啥?因为它没“数”的概念,只是根据以前见过的类似问题猜答案,猜对了是运气,猜错了也正常。
更要命的是“幻觉”问题,OpenAI自己都承认,大语言模型经常一本正经地胡说八道。

有医生用它查病例,它能编出不存在的医学术语,学生用它写论文,引用的文献可能都是假的。
这些错误要是出在医疗、法律这些关键领域,后果不堪设想。
杨立昆说,真正的智能得有“世界模型”。
啥意思?就是脑子里得有对世界的理解,知道苹果会掉地上是因为重力,知道饿了要吃饭。
可大语言模型没有这个,它的“知识”全在文字里,离了文字就抓瞎。

你问它“把大象放进冰箱分几步”,它可能会编个答案,但它不知道大象多大、冰箱多小,更不会真的去“想”怎么放。
从“文字游戏”到真智能,杨立昆想走的新路子现在大语言模型圈子有点“跑偏”,公司们比着谁的模型参数多、训练数据大,好像参数越大越智能。
可实际应用呢?除了聊天、写东西,真正能解决复杂问题的场景没几个。
杨立昆看着着急,干脆从Meta辞职,自己办了家叫AMI的新公司。
他想研究啥?因果推理和世界模型。

简单说,就是让机器不仅会“说”,还要会“想”。
比如看到苹果掉地上,能想到“因为有重力”,看到有人打伞,能想到“可能下雨了”。
这些对人来说是常识,对AI来说却是天大的难题。
杨立昆觉得,现在的AI就像“只会背课文的学生”,考试能蒙高分,但真让它解决实际问题就露馅。
要让AI变聪明,得让它像小孩一样,从和世界的互动中学习,而不是光在文字堆里打滚。

他举了个例子,小孩学说话,不是靠背字典,是先看到苹果,摸到苹果,吃到苹果,然后才知道“苹果”这个词的意思。
机器也该这样,得有感知能力,能和世界互动,慢慢建立对世界的理解。
杨立昆的话可能有点“泼冷水”,但仔细想想,挺有道理。
现在咱们用ChatGPT觉得方便,是因为它在“语言”这个层面做得好。
但要说它是“智能”,还差得远,就像计算器算得再快,也不是数学家,相机拍得再清楚,也不是画家。

大语言模型是个好工具,能帮我们写东西、查资料,提高效率。
但别把它当成“会思考的大脑”。
杨立昆折腾一辈子AI,图的不是造出会聊天的机器,是造出真正能理解世界、会思考的智能。
这条路肯定难走,毕竟连人类自己都没搞懂“智能”到底是啥。
但至少,得先认清楚流畅的文字,真不等于聪明的大脑。

希望杨立昆的“冷水”能让圈子冷静点,少点炒作,多点踏实研究。
说不定哪天,咱们真能见到一个不仅会说话,还会“想事儿”的AI。
不知道您对此有什么看法呢?欢迎在下方评论区留下你的想法,喜欢文章记得点赞关注我们下期再见。