应对人工智能武器说不

  当地时间7月18日,美国参谋长联席会议副主席保罗·塞尔瓦上将在国会听证会上提出警告,人工智能武器会让人失去作战控制能力,甚至最终反制人类!

  联想到此前诸多知名人士对人工智能潜在危险的预测,塞尔瓦将军的警告不应被忽视。而出于防患于未然之目的,各国应毫不犹豫地对人工智能武器说不。

  人类或不是人工智能的对手。2016年,人工智能程序AlphaGo以4:1的悬殊比分击败韩国围棋第一人李世石;2017年,在与AlphaGo的对决中,排名世界第一的天才棋手柯洁三战皆负。日本电气通信大学助教伊藤毅志认为,AlphaGo“完全达到了超越人类的水平”。在4月于北京召开的2017年全球移动互联网大会上,著名物理学家史蒂芬·霍金通过视频致开幕词强调,“我认为生物大脑能实现的东西和计算机能实现的东西之间不存在真正的差别”,而“受限于缓慢的生物进化,人类无法与人工智能竞争并可能被其取代”。事实上,早在三年前,霍金就曾对英国广播公司表示,发展全面的人工智能可能导致人类的毁灭。美国特斯拉汽车公司创始人埃隆·马斯克也形容人工智能是“恶魔”,“如果要我猜人类最大的生存威胁是什么,我想那就是人工智能”。

  人工智能武器可能超出人类控制。人工智能武器属自主系统,而自主系统是人类所创造的极为复杂的自适应系统,其能通过大数据支持和反复自我学习持续提高判断、决策能力。正如AlphaGo之父杰米斯·哈萨比斯所言“AlphaGo不仅仅只是模仿其他人类选手的下法,而且还在不断创新”。很显然,变得日益聪明、自信的人工智能武器,可能在未接收操作手指令的情况下“为所欲为”,自行选择目标,自主实施攻击,使得战场指挥员难以对其实施干预,更谈不上有效的指挥控制了。而超出控制的战场作战力量通常会产生意想不到的严重后果。

  人工智能武器易于扩散。与防核武器扩散仅需控制住易裂变材料铀、钚的生产与转移形成鲜明对比,部分人工智能武器体积小,成本低,便于大规模制造,可通过多种渠道流通。据报道,在叙利亚战场上已出现由商用无人机携带榴弹实施攻击的案例。因此,在人工智能武器功能尚未强大到令人恐惧的程度之前,形成一套禁止将人工智能用于武器的国际规范,对于阻遏人工智能军备竞赛,避免出现人工智能武器反制人类、毁灭人类的前景是十分必要的,也是极具前瞻性的举措。

打赏
赞 (0)