云霞育儿网

清华大学教授柳惯中说:搞无人驾驶汽车,无人商店、无人酒店我不奇怪,饭店里用机器人

清华大学教授柳惯中说:搞无人驾驶汽车,无人商店、无人酒店我不奇怪,饭店里用机器人端盘子,我也不奇怪。[凝视] 最近关于AI监控员工的新闻越来越多,外卖平台利用算法对骑手进行精确化计算,有效提高平台工作效率,但也暴露了算法控制下不平等劳动秩序的问题。 某物流公司的智能手环能监测员工每一个动作,超过15秒的“无效停顿”就会被扣分。更离谱的是,有些公司甚至用AI分析员工的面部表情,判断是否“工作状态良好”。 这种技术异化现象让人不安,原本应该让生活变得更轻松的AI,怎么反倒成了悬在员工头顶的“电子监工”? 比职场监控更让人忧心的,是年轻人对AI的过度依赖,ChatGPT向公众开放两周年以来,不少高校学生开始习惯用各类大模型协助完成论文润色、编写分析数据代码。 听起来很高效,但问题在哪里?由AI完成的作业最致命的问题在于,让学生逐渐失去了独立思考、批判质疑的精神。过去学生可能只是借助AI来润色,但现在脱离了AI,学生已经快失去了原创写作的能力。 更麻烦的是,技术本身还可能被滥用。前段时间某明星的AI换脸视频在网上疯传,连带着一大批“专家访谈”的合成视频也被曝光是AI批量生成的。制作者被质疑后竟然理直气壮地说:“反正真专家说的也差不多。” 这种荒诞背后,暴露的是三个深层次问题。 首先是资本逐利的本性让技术沦为纯粹的效率工具,近九成企业已将AI嵌入其经营的至少一个环节,数据分析与决策支持成为AI最核心的应用场景。 企业把AI当作“降本增效”的利器,却很少考虑对员工福祉的影响,某仓储企业的员工戴着智能设备上班,每一个动作都被记录评分,活像生产线上的零件。 其次是社会认知的滞后让监管总是慢半拍,技术发展日新月异,但相关的法律法规和社会共识却跟不上节奏。就像用马车时代的交通规则来管理汽车一样,注定要出问题。 最根本的是人文关怀的缺失,在算法优化的KPI里,从来没有“员工幸福感”这个参数。技术专家只关心系统运行是否高效,很少思考这种效率是否以牺牲人的尊严为代价。 不过,改变正在发生。杭州某科技公司试点了“反算法管理”模式,程序员可以自主选择是否开启工作效率监测。结果发现,给员工更多自主权后,工作效率不降反升。 今年多所高校发文规范学生如何在毕业论文中使用生成式AI,对AI代写进行检测。复旦大学新开设的《批判性思维训练》课程要求学生必须手写所有作业,目的是培养独立思考能力。 在法律层面,深圳已经出台了全国首个AI伦理审查办法,明确规定涉及员工监控的系统必须经过职工代表大会表决。意大利监管机构更是重拳出击,对两家外卖公司开出总计550万欧元的罚单,理由是它们完全通过算法为骑手进行评级、排名甚至处罚,而缺乏人工干预机制。 技术发展的方向盘,终究要握在人的手里,当我们开发新系统时,不妨先问问自己三个问题:这个功能是让人更自在还是更紧张?是激发创造力还是培养惰性?是创造价值还是制造焦虑? 记住,再智能的算法也应该服务人性,而不是改造人性。毕竟,技术的终极目标应该是让人活得更像人,而不是让人变得更像机器。 你有没有遇到过被AI“管得太宽”的经历?比如公司的考勤系统精确到秒,或者被算法推荐搞得团团转?又或者,你觉得什么样的AI应用才算是真正“以人为本”? 信源: