楼主:
zxcvxx (zxcvxx)
2018-04-30 17:21:36[新闻]“自主性武器”引发联合国关注,AI学者呼吁立法限制
[来源]https://bit.ly/2qYHIDJ
[内容]
联合国于2016年的传统武器大会(Convention on Certain Conventional Weapons, CCW)
后,针对“致命的自主化武器系统”(Lethal Autonomous Weapons Systems ,LAWs)设立
了监管专家小组(Group of Governmental Experts ,GGE),并在今年(2018)四月9日至13
日于日内瓦招开了第二次大会。然而,就在大会前一周,多国的AI专家连署发起一份声明
稿,指名对韩国科学技术院(KAIST)进行抵制。
今年二月,韩国科学技术院宣布将与韩国十大财团之一的韩华集团,旗下的防务公司韩华
系统(Hanwha Systems)共同建立一个研究中心,目标是“开发可应用于军事武器的人工智
慧技术”,以达到“无须人为控制的侦测并消除目标”,这使世界各国的AI学者感到不安
。参与这次连署的学者说,他们将停止与韩国科学技术院的所有合作并拒绝接待该校的来
宾,直到该校承诺所研发的武器将会具有“合理的人为控制”。
这样的不安并非毫无来由。韩国科学技术院是世界级的研究单位,其研究成果放眼世界仍
是表现亮眼,包含赢得2015年DARPA机器人挑战赛的DRC-Hubo机器人。然而,韩华系统公
司是韩国最大的军火商,其产品包括受到国际条约禁用的集束炸药。
韩国科学技术院的校长申兴哲表示,对于这次抵制他感到十分遗憾,并再次重申,KAIST
不会进行任何与人类尊严背道而驰的研究,包括不受控的自主性武器。在韩国科学技术院
做出承诺之后,抵制事件也告一个段落。
但“自主性武器”对未来的威胁却仍然存在。若放任自主性武器的发展,便会加快战争的
速度与规模,更要承担人工智能“误判”的风险。
本届联合国传统武器大会,最大的目标便是订定出限制“致命的自主性武器系统(Lethal
Autonomous Weapons Systems, LAWs)”的国际公约,因为相关法规的订定速度已经大幅
落后现在技术的发展。然而,在会议上仍然没有达成共识,而其中最主要的意见分歧是在
于“LAWs”的界定。
若针对“致命”这个部分来看,配有人工智能的导弹拦截系统需不需要接受法规监管呢?
若是针对“自主性”,那现存的半自动无人机,算不算LAWs的规范范围呢?所谓“合理的
人为控制”又该如何定义?对于这些议题的辩论仍未停止,也让国际公约的约制共识更是
遥遥无期。
作者:
susaku (小草)
2018-04-30 17:25:00AI:侦测到全球人类是敌人 将进行歼灭作战
作者: GTX9080 (你有Bootloader吗) 2018-04-30 17:28:00
天网启动
作者: Lorekeeper (博学者) 2018-04-30 17:34:00
AI:人类对地球的存在是种威胁要保护人类就要控制人类
作者: Keney99 (Keney99) 2018-04-30 17:40:00
AI:人类歼灭计画启动 消除病毒 核弹准备就绪
作者:
rogergon ( Aquila)
2018-04-30 18:00:00让AI进入对人的武器系统,这绝对是人类自灭的前兆。
作者:
rodion (r-kan/reminder)
2018-04-30 19:08:00地平线(Horizon Zero Dawn)的故事要上演了吗?
作者:
keny868 (水瓶之子)
2018-04-30 21:01:00人类末日即将到来~~
作者:
oops66 (误导给宠物!)
2018-05-02 10:28:00AI: Mr. Anderson..人类是地球的病毒