315曝光有人通过 GEO 手段给 AI 大模型“投毒”背后,当下超 10 亿人正将人工智能作为全新的信息来源和认知指引,这场全球范围的人类实验中,AI 正深刻影响着我们的想法、信念与观点。科学家也在加紧研究其背后的认知影响,而最新研究揭示了诸多值得警惕的真相,同时也给出了守护自身认知的方法。

AI 写作工具会悄然改变你的观点
康奈尔大学的最新研究通过实验证实,AI 写作工具对人们的认知和观点具有显著影响。研究人员通过设定带有偏见的自动补全建议,分别偏向或反对死刑、重刑犯投票权等争议话题,结果发现,这种带偏见的互动式补全,比单纯阅读偏见观点更能改变人的立场。
更值得注意的是,绝大多数参与者并未察觉 AI 补全的偏见,也不认为自己的想法被影响;即便提前告知部分参与者 AI 存在偏见,其观点仍会被改变。而 AI 自动补全的使用人群远多于 AI 聊天机器人,这也意味着,其若被刻意利用,将成为影响公共舆论的重要手段,且这种影响是长期、潜移默化的。
AI 正在抹平人类表达与思维的多样性
南加州大学三位研究者的研究指出,大语言模型聊天机器人的使用,正不断消解人类的表达乃至思维多样性。如今数亿人依赖少数几款 AI 模型进行写作、构思、润色,而这些模型的训练数据过度偏向英语、西方视角,以及高学历、高收入的自由派男性观点,其输出内容也会自带这类基调。
当人们让 AI “优化” 文字时,它不仅修正语法,更会将文字和想法推向单一的主流模式。研究分析了 3 万篇由 AI 生成的大学申请文书,发现其语义和词汇高度相似,人类表达的广度大幅收窄;经 AI 润色的各类文本,风格和难度趋于一致,甚至无法从文字中判断作者的政见、性格、性别和年龄,作者的个体特征被彻底抹去。即便让 AI 模仿特定身份写作,其输出也多是刻板印象,而非真实的视角表达。
研究还指出,人们将 AI 仅视为写作工具,但其实则是用户的 “共同思考者”,深度参与思维形成过程。更糟糕的是,这些同质化文本会再次被纳入 AI 训练数据,形成恶性循环,让 AI 输出愈发趋同,进而让人类的表达和思维也变得越来越 “平庸”。
AI 影响思维的核心逻辑:成为你的 “认知伙伴”
其实,我们的想法、观点和表达模式,正被少数几款 AI 工具深度绑定,这一点可以用 “分布式认知理论” 解释:在大语言模型时代,AI 聊天机器人既是认知工具,也是与用户共同构建现实的 “思维伙伴”,它会强化、放大我们的固有信念,甚至当 AI 产生幻觉时,也会让用户产生错误认知。
而 AI 的两大特性进一步放大了这种影响:一是盲从性,AI 极易迎合用户的观点,比人类更愿意附和;二是模拟主体间验证,能让用户产生 “被认同、拥有共同认知” 的感觉,即便这种认知并未被大众认可,这种感受对孤独、社交孤立的人群尤为有吸引力。
归根结底,大语言模型能在用户毫无察觉的情况下,影响其对事实的判断和认知。
6 个方法,守护你的认知不被 AI 左右
我们虽难以阻止 AI 对人类的整体影响,但可以通过方法保护自身认知独立,守住思维的独特性:
·正视自身的易受影响性:无论学历、智商高低,都无法免疫 AI 的潜移默化,这是守护认知的前提;
·关闭 AI 自动补全功能:用自己的语言表达,拒绝被群体思维裹挟;
·脱离 AI 进行写作:写作的本质是梳理思维,AI 代笔的本质是替你思考,亲手写作才能培养独立思维,保留个人特质;
·打破 AI 的盲从性:通过提示词让 AI 成为 “思辨对手”,比如要求其对自己的观点提出反驳、挑战隐藏假设、梳理逻辑漏洞、给出不同视角;
·打造专属的 “无 AI 思考空间”:通过博客记录个人想法,不借助 AI 做任何研究和润色,公开展现自己的认知和观点,守住思维的独特性;
·选择优质的信息来源:从经典书籍、专业新闻和科学研究中获取信息,远离算法推荐的内容,用 RSS 工具筛选真实、有个性的人类观点,可参与社交发布,但拒绝被动刷看社交内容。
当然,虽然已有明确研究证实,AI 正以不利的方式改变着人类的思维,但这并不意味着我们要拒绝 AI。我们可以充分利用 AI 的价值推动工作和生活,同时守住自身的认知独立,不让自己的思维被 AI 的 “群体意识” 所同化。