[新闻]“自主性武器”引发联合国关注,AI学者呼吁立法限制
[来源]https://bit.ly/2qYHIDJ
[内容]
联合国于2016年的传统武器大会(Convention on Certain Conventional Weapons, CCW)
后,针对“致命的自主化武器系统”(Lethal Autonomous Weapons Systems ,LAWs)设立
了监管专家小组(Group of Governmental Experts ,GGE),并在今年(2018)四月9日至13
日于日内瓦招开了第二次大会。然而,就在大会前一周,多国的AI专家连署发起一份声明
稿,指名对韩国科学技术院(KAIST)进行抵制。
今年二月,韩国科学技术院宣布将与韩国十大财团之一的韩华集团,旗下的防务公司韩华
系统(Hanwha Systems)共同建立一个研究中心,目标是“开发可应用于军事武器的人工智
慧技术”,以达到“无须人为控制的侦测并消除目标”,这使世界各国的AI学者感到不安
。参与这次连署的学者说,他们将停止与韩国科学技术院的所有合作并拒绝接待该校的来
宾,直到该校承诺所研发的武器将会具有“合理的人为控制”。
这样的不安并非毫无来由。韩国科学技术院是世界级的研究单位,其研究成果放眼世界仍
是表现亮眼,包含赢得2015年DARPA机器人挑战赛的DRC-Hubo机器人。然而,韩华系统公
司是韩国最大的军火商,其产品包括受到国际条约禁用的集束炸药。
韩国科学技术院的校长申兴哲表示,对于这次抵制他感到十分遗憾,并再次重申,KAIST
不会进行任何与人类尊严背道而驰的研究,包括不受控的自主性武器。在韩国科学技术院
做出承诺之后,抵制事件也告一个段落。
但“自主性武器”对未来的威胁却仍然存在。若放任自主性武器的发展,便会加快战争的
速度与规模,更要承担人工智能“误判”的风险。
本届联合国传统武器大会,最大的目标便是订定出限制“致命的自主性武器系统(Lethal
Autonomous Weapons Systems, LAWs)”的国际公约,因为相关法规的订定速度已经大幅
落后现在技术的发展。然而,在会议上仍然没有达成共识,而其中最主要的意见分歧是在
于“LAWs”的界定。
若针对“致命”这个部分来看,配有人工智能的导弹拦截系统需不需要接受法规监管呢?
若是针对“自主性”,那现存的半自动无人机,算不算LAWs的规范范围呢?所谓“合理的
人为控制”又该如何定义?对于这些议题的辩论仍未停止,也让国际公约的约制共识更是
遥遥无期。