别造魔鬼终结者!专家促订禁用AI武器条约
http://www.chinatimes.com/realtimenews/20170821005422-260417
包括SpacX老板伊隆.马斯克(Elon Musk)在内的100多名人工智能专家联名,敦促联合国
制定彻底禁止研发杀手机器人的相关技术,以避免人类自毁。
科学警报(Science Alert)报导, 114名AI和机器人专家以联名公开信的方式,敦促联合
国通过“禁止所有致命自主智能武器系统的发展,来防止即将出现的第三次军事革命”
。
公开信是在澳洲墨尔本召开的2017全球AI联合会(AI-IJCAI 2017)上发布的,公开信提到
一旦AI智能武器开发成功,未来的武装冲突规模将比以前更大、更快而且更容易扩散,AI
武器除了在正规作战会造成大量伤亡以外,很可能也会成为恐怖分子的主流武器,将有更
多无辜人民受害。
自动杀伤武器,或者称为“杀手机器人”,它的开发速度很快,特别是现在电子科技已非
常普及,因此许多国家都有能力自主研发。。这些专家认为,以联合国的军事监管名义,
制定类似限制核武研发的国际条约已刻不容缓。
除了马斯克以外,同样在联名信里署名的还有Deep mind科技的苏莱曼(Mustafa
Suleyman)、苹果公司联合创始人史蒂夫·沃兹尼克(Stephen Wozniak)。
公开信强调,“我们已没有太多时间,一但潘多拉的盒子打开,就很难关闭。”
Clearpath机器人公司的创始人莱恩.盖尔比(Ryan Gariepy)说:“签署了这封信的著名
公司与众多人物,显示这项警告的份量,AI武器的危机不是一个假设的场景,而是一个非
常现实、非常迫切,值得立即采取行动的世界危机。”
多数人提到杀手机器人,最形象化的角色就是电影“魔鬼终结者”(The Terminator)当中
的T-800,它的外表令人胆寒,但实际情况是,现在已经有许多自动化的杀戮机器了,也
就是杀手机器早已被大量应用。
自主或半自主能力的武器很多,比如问世30多年的方阵快炮(Phalanx Close-In Weapon
System),它是一种全自动系统,完全不必人工操作,只要有威胁物体接近,电脑就会自
己启动,以拦截高速袭来的飞弹或飞机。而韩国三星的SGR-A1哨兵、英国BAE的雷神(无人
机Taranis drone)和美国国防高等研究署(DARPA)的海猎人无人潜舰(Sea Hunter
submarine)都可视为某种程度的杀手机器人。
换句话说,杀手机器人的技术种子已经在陆地、海洋和空中存在,因此更需要条约来约束
这些致命机器的开发。
====
看来以后看不到军武娘了?
不过看这新闻让我想到少前中会在背景故事中出现的人类反AI武器团体。
仔细想想只要有军武娘的作品,好像都会有这类立场的反派出现。
作者:
shuten ( [////>)
2017-08-22 08:45:00阿诺
作者:
kopune (ç„¡é™æœŸæ”¯æŒ i☆Ris)
2017-08-22 08:47:00有种此地无银三百两的感觉
作者: zhtw (人生就是不停的后悔。。) 2017-08-22 08:48:00
联合国有什么强制性吗XD
作者:
shun01 (老胡做13年,青沼瞬活14年)
2017-08-22 08:49:00建议直接废除联合国
作者:
xlagowe (小蔡)
2017-08-22 08:49:00没屁用,美中一定会研究,然后其他国家研究就会被骂是邪恶制造战争
作者:
HYSQQ (其实我没有 )
2017-08-22 08:50:00还好我们没加入联合国!
作者:
phix (88)
2017-08-22 08:53:00不太可能AI吧 最多遥控
作者: djcc 2017-08-22 08:53:00
北韩造出来 美国真的没造 才真的大乱
作者:
meowyih (meowyih)
2017-08-22 08:53:00数百年前就走的地雷也是全自动系统, 完全不用人工操作,只要有威胁物体接近就会自动启动, 一样吧? :p
作者:
KiSeigi (Kuroda.K.Masamura)
2017-08-22 08:54:00禁止研发,但以后美国会派自动AI去围剿试图研发的组织
作者:
xlagowe (小蔡)
2017-08-22 08:56:00呵呵呵呵,美国没造出来才真的好笑,最爱做贼喊抓贼的对啦,非战争用,只是要拿来做学术研究,只是有需要的时候刚好就能转战争用
作者:
kenyun (中肯阿皮)
2017-08-22 09:04:00之前就有模拟战阿法狗打赢美军ACE的新闻 要真的上天空有G力 那人类不就像被打好玩的 啊是说要禁AI 大不了一样装驾驶仓 切自动驾驶就是偷开AI就行了
作者:
tonyxfg (tonyxfg)
2017-08-22 09:09:00一句话,谁理他啊,谁真信了谁就准备在未来的战争被打到
作者:
zien0223 (LazyCat)
2017-08-22 09:09:00不~我的塔奇库玛!
作者:
belmontc (あなたのハートに天诛♥)
2017-08-22 09:12:00无人机都挡不下来了 机器人会挡得下来? 呵呵
作者: akuma183 2017-08-22 09:12:00
山姆叔叔一定会拖到自己做出来后 才叫大家一起不要做
作者: achita (果冻鱼) 2017-08-22 09:13:00
智械危机?
作者:
myanigi (豆仔)
2017-08-22 09:13:00ˊㄇˋ
作者:
gtfour (朱兆兰)
2017-08-22 09:17:00一人一信支持特列斯大人!!+1
作者:
xlagowe (小蔡)
2017-08-22 09:19:00一人一信支持破灭魔剑,破灭魔剑>>>>>>>>>>>>>>>>>>钢弹>>>>AIMA
作者:
rayven (掷筊才是真正云端运算)
2017-08-22 09:22:00无人机已经在杀人了
作者:
gunng (暗黑检察官)
2017-08-22 09:22:00准备启动Horizon Zero Dawn
作者:
SCLPAL (看相的说我一脸被劈样)
2017-08-22 09:23:00别阻挡我跟艾莉丝的接触>////<
作者:
arbo7777 (hahar)
2017-08-22 09:24:00怕什么?未来机器人拥有AI,人类走基因改造路线就可以了
作者: CCNK 2017-08-22 09:26:00
不就东亚重工的世界而已XD
作者:
abioa (吱阿噜)
2017-08-22 09:36:00飞机上放只狗偷开AI就不是作弊惹吧
作者: littlemame (小豆) 2017-08-22 09:41:00
条约是给弱国遵守的 强国才不甩你
作者:
vm06 (衍)
2017-08-22 09:43:00阿诺:说过的吧,I will be back!
作者:
sarraya (~ No Game No Life ~)
2017-08-22 09:48:00请选择机器人的政策方针:违法、奴仆、市民权(stellaris)
作者:
joe1220 (NoJeo)
2017-08-22 10:05:00我选择使用恶必登洗衣精清理宇宙脏污
作者: pepiniii (丕平三世) 2017-08-22 10:15:00
不可能吧
作者: lockchad (locke) 2017-08-22 10:39:00
这不是未来事情比你们想像的严重,关键字 美国无人机 滥杀
这就像有人发明引擎,然后联合国限制他不能装在武器上,免得武装车辆跑太快;但真的遇到战争,大家一定会发现用民车装武器效益比没引擎的战车好,最后就出现一堆钻漏洞的做法
仔细想想几千年前就有的捕兽陷阱也算是自动杀伤装置吧
作者:
Eito7 (咏人)
2017-08-22 10:46:00反正美中俄那些大国也不会签的,然后因为台湾不被视为国家,所以想签也不能签 ㄎㄎ
作者: wiork (我在工作~) 2017-08-22 10:48:00
还不是会有人研发黑科技...
作者:
Slas (å²é›·æ–¯)
2017-08-22 11:04:00几万个绊爱在战场上颜艺吗?
想当初一战时,德国认为散弹枪不人道,要限制,结果呢
作者:
SCLPAL (看相的说我一脸被劈样)
2017-08-22 11:40:00吃我的MP18啦 ??
作者:
lv256 (等级256)
2017-08-22 11:51:00低能儿ww有空在那里喊禁止不如想想怎么反制,所有技术的进步都是为了战争,开发完ai不拿去用当世界各国喜憨儿吗XDDD
作者:
donkilu (donkilu)
2017-08-22 12:12:00Metal gear啊啊啊啊啊
作者:
Valter (V)
2017-08-22 12:28:00左轮大人是对的 不该让有意识的AI继续存在
作者: richard42 (里茶 汐儿) 2017-08-22 13:02:00
都签 然后继续研究
作者:
kamir (小K)
2017-08-22 14:06:00听命于电脑的人脑呢?
作者:
kingo2327 (NakedGenius)
2017-08-22 15:51:00I will be back
作者: notneme159 2017-08-22 16:12:00
metal gear
作者: HOLDSTEAK (握牛排) 2017-08-22 20:37:00
没差啦 没禁止开发猫娘就好了(?)