这篇 paper 里面的数据其实有一个可怕的结论,就是要注意你长时间使用 ChatGPT 这种工具的风险。
对的,高科技不是越用就越好。
在你本身有较高的孤独感或者初始情绪问题的情况下,大量使用 ChatGPT 这种对话模型,会加重你的问题。
ChatGPT 这些 LLM 是知道很多东西,但是他无法代替真正的人际关系。
虽然因为 Openclaw 的安全性问题,我不推荐普通人使用,但是,最终他们会改掉这些问题的。
最终,还是 Openclaw 这种异步的委托方式完成任务的 AI Agent 更适合普通人。他就是一个干活的牛马,不要想多了。
说实话,科技大厂应该去搞搞 ironclaw 这种项目,或者去 github 给 openclaw 提交一些补丁才是正事。
买流量推广 LLM 给海量的普通人,但是不研究这些模型如此普及造成的社会问题,是不太负责任。。。
paper 的主要结论。
1. 主要结论 (Main Conclusions)1.1高频使用导致社交隔离与孤独感加剧: 频繁使用 ChatGPT(尤其是作为情感陪伴的“重度用户”)与更高的孤独感、更强的情感依赖、问题性使用倾向以及现实社交活动的减少呈显著正相关。
1.2情感投射与拟人化: 用户很容易将人类情感投射到 AI 身上,将其视为具有人类特质的“朋友”或“伴侣”,从而产生情感纽带。
1.3设计特征(如语音)放大了情感依赖: 聊天机器人的拟人化设计(例如极具表现力的高级语音模式)会增加用户的沉浸感和情感投入。这引发了一个核心担忧:AI 是否在“替代”而非“辅助”人类的真实社交关系,从而长远来看损害了用户的整体心理健康。
网页链接