未来什么武器可能将人类带向灭亡?不是核武器:霍金早有警告
早在2014年1月,霍金就和埃隆·马斯克他们一起,在未来生命研究所签了封公开信,呼吁大家把AI研究往安全方向推。信里强调,AI潜力巨大,能解决癌症、气候变化这些大麻烦,但前提是别让它失控。霍金特别点出军事应用的风险:如果AI接入武器系统,网络一被入侵,后果比核弹还糟。
核弹是静态的,AI是活的,能学习、适应,甚至自我复制。
2015年7月,他又签了封信,这次直指“杀手机器人”。一千多位专家,包括马斯克和苹果的沃兹尼亚克,都附议,警告军事AI军备竞赛会酿大祸。
信里说,自主武器一旦普及,门槛低到恐怖分子都能搞,扩散速度像病毒。霍金的观点很接地气:AI不是魔鬼,但人类用它打仗,就等于给自己挖坑。
过去几年,国际上没少讨论禁令,可大国间拉锯,进展慢吞吞。
AI不像传统武器那么可控,核武有条约管着,化学武器也基本禁了,可AI武器呢?它能压缩决策时间,从几天变几秒,误判风险直线上升。 比如,AI驱动的导弹系统,本该锁定敌机,结果传感器一 glitch,就炸错目标。
2025年上半年,斯德哥尔摩国际和平研究所的报告就点明,非核军事AI会让危机中人类反应不过来,核升级概率飙升。
军事AI的脚步没停,已经从实验室爬到战场。美军在推AI战略,重点是无人机和机器人部队。 这些玩意儿能自主巡逻、识别目标,减少士兵伤亡,听着多好。可风险呢?操作漏洞大开,黑客一钻空子,就能让整支队伍掉头。
乌克兰冲突里,AI无人机已经成主力,命中率高得吓人,但干扰一多,误伤就冒头。 分析师们直摇头,说这不光是cyber威胁,还缺人类把关,自主系统一失控,等于开了潘多拉盒子。
AI在武器设计上的猫腻更让人脊背发凉,学术AI研究别想躲开军用后果。 生成式AI能模拟战场,优化导弹轨迹,迭代上千次,效率高到变态。可这也意味着,设计杀伤力更强的玩意儿,门槛低了。
非国家势力一上手,生物武器或脏弹的组装指南,就能AI吐出来。2025年7月的布里奇斯学会文章列了六种AI引战方式:从权力平衡打破,到意外升级,全是血淋淋的可能。
风险谱系从低到高摊开,低端是当下操作险,像cyber攻击瘫痪无人机群;高端是存在威胁,AI超智后重塑世界。 通用AI进步,可能直奔灭绝。
专业上,监管是关键,可虚空还大。
霍金的遗产,就在这:逼我们直面,AI军用化不是赛跑,是自杀冲刺。
参考资料
日本发布人工智能武器研发指南,明确“人类干预”必要性 光明网
页:
[1]