金一南将军再次语出惊人,他说:“未来,对人类威胁最大、最可怕的,不是核武器,而是

冰封万里行者孤 2025-08-15 14:54:04

金一南将军再次语出惊人,他说:“未来,对人类威胁最大、最可怕的,不是核武器,而是AI技术!美军早将AI视作“颠覆战局”的核心技术,人工智能若进入战场,将带来毁灭性打击......”振聋发聩! 金一南在公开场合指出,人工智能对未来的威胁超过核武器,它进入战场会造成毁灭性打击。美国军队把AI视为颠覆战局的核心技术,早就在推进相关项目。比如梅文项目,用算法处理卫星图像,识别军事目标,提高作战效率。 以色列防空系统装上AI后,反应速度远超人工,拦截导弹更精准。俄罗斯开发自主作战坦克,能自行决策攻击。这些例子说明,全球八十多个国家都在研究军事AI,去年支出超180亿美元,还在快速增长。 风险主要有三点:第一,AI响应太快,人来不及干预,可能瞬间酿成大祸。第二,它可能失控,脱离人类控制,像科幻中机器人反叛。第三,容易出错,把无害目标当成威胁,导致不必要损失。 更麻烦的是,恐怖组织能用网上免费程序自制AI武器,成本不到5万美元。这不光是军事问题,日常生活中AI也带来麻烦,有人用它伪造总统讲话,差点引发政变;恐怖分子用AI策划袭击;股市因AI自动交易出错,一天蒸发上万亿。专家警告,如果不管制,破坏会更严重。 现在全世界还没想好怎么管AI,欧洲和美国出了些规定,但跟不上发展速度。调查显示,AI研发者中三分之二承认成果可能被滥用,但只有不到10%的公司有道德审查。这就像大家造车却没交通规则,早晚出事。 金一南的话提醒大家,AI渗透生活方方面面,既能治病、预测天气、解决环境问题,也可能被用来干坏事,这个平衡难把握。需要改变管理方式,让AI公司登记备案,像管药品一样严格。 还要多投钱研究AI安全,现在这方面经费不到总投入的2%,应该从公司收入中抽1%专款专用。最关键是重视道德,有的AI公司改口号为“不造成无法挽回后果”,这个思路值得推广。可以给负责的公司发“道德认证”,像有机食品标签。 各国继续加速军事AI部署,美国海军陆战队发布计划,目标到2027年实现数字化作战,提升决策速度。以色列成立AI和自主系统管理局,统筹资源,确保技术兼容。俄罗斯推进机器人部队建设,在演习中测试自主功能。国际上,专家呼吁加强管制,欧洲和美国更新法规,但技术进步更快。 最近数据显示,2025年全球军事AI支出预计超200亿美元,美国、中国、俄罗斯领跑。以色列铁穹系统升级AI版,拦截率达95%。俄罗斯T-14坦克融入AI,自主导航精度高。美国梅文项目扩展到无人机群,实时分析战场数据。这些发展验证了金一南的担忧,AI正改变战争形态。 管制方面,联合国讨论AI武器公约,但进展慢。专家建议国际合作,建立AI伦理标准。金一南的观点在圈内流传广,大家觉得他说得对,AI双刃剑,用好了益处大,用不好灾难深。

0 阅读:38

评论列表

一阵风

一阵风

2
2025-08-15 15:24

以后谁掌握了智能Al领域的高科技开发,谁就能掌握制高点的,巴勒斯坦人已经错过了建国的机会了,以后只能被以色列继续屠杀待尽徹底在地球上消失

冰封万里行者孤

冰封万里行者孤

冰封万里行者孤