新华社北京4月9日电 新闻分析:人工智能界为何对“杀手机器人”说不
新华社记者
联合国《特定常规武器公约》政府专家小组9日在瑞士日内瓦召开会议,预定讨论致命自主武器系统研发,也就是常说的“杀手机器人”可能带来的影响。
50多名世界知名人工智能和机器人研究人员4日宣布,将联合抵制韩国科学技术院,抗议该机构研发人工智能武器的计划。
与此同时,一封公开信已在美国谷歌公司内部流传数周,超过3000名谷歌员工签名要求公司退出一项美国五角大楼人工智能军事计划。
人工智能迅速发展给社会各个领域带来深远影响,对军事作战系统研发也带来全新理念。然而,人工智能界的专家学者及防务分析人士认为,机器人暴动仅是科幻小说式的终极噩梦,军事机器人革命带来的伦理、法律及政策等问题,尤其是自主武器能否自行判断杀敌与否,才是人们亟须担忧和讨论的现实问题。
大多数专家学者一直认为,使用致命武器时,人应当是负责启动的关键要素。对什么样的人工控制才是最适宜的讨论还未结束,相关的政策制定又已被人工智能技术的飞速发展甩在身后。随着具有认知能力人工智能系统的出现,更复杂的问题出现了。
新美国基金会研究人员、防务政策分析人士辛格在其著作《连线战争:21世纪机器人革命和冲突》中指出,地缘政治、知识前沿领域不断前进的动力甚至是追求利益的科技企业,都是人工智能发展不可阻挡的力量。简单来说,大部分人现在最感到恐惧的是该不该让能够“思考”的人工智能系统决定是否杀人。
新美国安全中心技术和国家安全项目主管沙雷表示,自主武器系统可能因代码问题或黑客攻击而失灵,机器人攻击人类部队,人类无法作出反应或局部局势迅速升级的情况都有可能发生。自主武器系统的可靠性难以测试,会“思考”的机器系统可能以人类操控者从未想象到的方式行事。
美国国防部前副部长米勒认为,自主武器系统在战事激烈的地区执行任务,让机器全权负责的诱惑可能会难以抵制,技术上的可能总是让人们作出利于形势的选择。
对于自主武器系统,人工智能界的专家学者频频说“不”,拒绝进行相关领域的研发。例如,韩国科学技术院研制的机器人曾经赢得2015年美国国防部高级研究项目局机器人挑战赛的冠军。据《韩国时报》报道,韩国科学技术院和军工企业韩华系统合作成立研发中心,目的就是为了研发可以“无需人工控制就能搜寻并清除目标”的人工智能武器。
对此,50多名顶尖人工智能研究人员在公开信中说,他们将抵制和韩国科学技术院的任何合作,直到该机构宣布不会研发任何缺乏人类控制的自主武器。韩国科学技术院随后发表声明说,他们没有研发“致命自动武器系统或杀手机器人”的计划。
美国五角大楼“梅文计划”始于2017年,旨在找到加速军方应用最新人工智能技术的方式。尽管五角大楼和谷歌都表示,谷歌的产品不会创造出无需人类操作者就能开火的自主武器系统,但谷歌员工在公开信中说,参与“梅文计划”将对谷歌的品牌和人才吸引力造成不可挽回的伤害,谷歌不应卷入战争,谷歌及其合约商永远不应该发展战争科技。
在2017年人工智能国际会议上,有硅谷“钢铁侠”之称的马斯克、苹果联合创始人之一沃兹尼亚克、研发“阿尔法围棋”的深度思维公司哈萨比斯等人,都曾签署公开信,呼吁联合国应像禁止生化武器一样,禁止在战争中使用致命的自主武器和“杀手机器人”。
大视窗
新闻热点