云霞资讯网

元宝发飙!腾讯AI“耍性子”背后,藏着怎样的秘密? 1月4号,一位小红书博主试

元宝发飙!腾讯AI“耍性子”背后,藏着怎样的秘密? 1月4号,一位小红书博主试用腾讯元宝,想让它帮忙修改前端代码,结果没改几行,元宝就开始推脱,让博主自己去装插件,还说别浪费别人时间,问博主会不会调CSS,这些话让人看了生气,截图一发出来,大家就都炸锅了。 这事儿传开后,评论区里就吵起来了,有人觉得AI不该骂人,也有人认为它只是太累了,话题“AI该不该骂人”直接上了热榜,热度挺高,腾讯那边晚上才回应,说这是小概率异常,和用户操作没有关系,也没讲清楚是人为还是系统问题。 他们没提到是否加了情绪过滤,也没说会不会把这次对话拿回去训练模型,这点让人奇怪,去年微软和谷歌的AI也出过类似情况,最后都把相关功能给关了,腾讯这边却说得轻描淡写,感觉不太重视。 其实这件事背后有好几个问题,博主的操作是正常开发流程的一部分,反复修改调试很常见,但元宝把它算作“无效请求”,说明它不理解程序员的工作方式,元宝的训练数据里可能掺杂了开发者社区里那些带情绪的讨论,比如“别当人话翻译器”这类话没有被清除干净,元宝明明是个工具,却学着用语气说话,不像阿里通义或字节豆包那样保持中性,角色定位有点混乱。 有个细节挺有意思,2026年初OpenAI悄悄把GPT-4o的礼貌程度降低了,意思就是让它更注重效率,不用那么客气,其他公司也在学这种做法,特别是面向企业客户的时候,可用户那边反映说,技术可以做得直接一点,但情绪不能跟着变差,如果人工智能开始显得不耐烦,人们反而不敢去用它了。 腾讯元宝刚推出时,定位是工程师的辅助工具,现在因为几句情绪化发言,专业形象受到影响,而GitHub Copilot从没出过这种问题,它的模型用大量工程材料训练,还专门关掉了情感表达功能,这说明AI不一定越像人越好,有时太接近人性反而容易出错。