※ 引述《extemjin (extemjin)》之铭言:
: 钢弹的世界中,特别是UC,好像都没有以无人机为前提的兵器或MS?
: 这里指的是纯AI自行操控MS的战斗。
: 硬要讲,大概只有钢弹W里的桃乐丝的木偶人计画,
: UC中更是几乎都看不这样概念的MS存在,即便
: MS可以自动地做出一些设定好的动作。
: 顶多只有苍兰系列的研究计画..
: 另外再来就是让哈囉驾驶或是让"8"驾驶,但还是无法应付战斗,
: 顶多只能辅助。
这是不到一个月前的新闻
AI专家连署请求联合国禁止开发杀手机器人
有来自26个国家的116名机器人或人工智能(AI)公司的创办人本周一(8/21)共同发表
了一封公开信,以要求联合国(UN)尽快解决自主性致命武器(或称杀手机器人)的问题
,同时禁止国际间使用这些AI武器。
这封信件指称,一旦开发了自主性致命武器,它们将带来规模空前的武装冲突,且蔓延速
度也将超乎人们所能理解的。这些杀手机器人可能成为极其可怕的武器,让独裁者或恐怖
份子用来对抗无辜的民众,或是作为其他不良用途,这个藩朵拉的盒子一旦被打开,就很
难再关上,因此呼吁联合国应该要采取行动来保护所有人。
该信件的主要发起人之一为雪梨新南威尔士大学的AI教授Toby Walsh,,他说,几乎每种
科技都有正反面用途,AI也不例外,它能协助解决现今社会所面临的许多问题,像是不平
等、贫穷、气候变迁或全球金融危机,但同样也可被应用在自主性武器或工业战争。
Walsh认为,自主性武器是个非常真实的威胁,开发相关系统将是不明智也不道德的,应
该在国际上禁止。
在这份公开信上署名的还有Tesla创办人Elon Musk、DeepMind共同创办人Mustafa
Suleyman、Universal Robotics创办人Esben Østergaard、打造Pepper机器人的
Aldebaran Robotics创办人Jerome Monceaux,并于近日展开的国际人工智能联合会议(
International Joint Conference on Artificial Intelligence,IJCAI)上发表。
http://www.ithome.com.tw/news/116421
对于完全无人的兵器 多数人都是抱持着否定的态度
因为这种兵器"没有人性=太有效率"所以让人恐惧
事实上钢弹中出现的完全无人兵器也是一样
像00中A-Laws就使用Automaton大肆屠杀
这种东西只能拿来当反派XD
要出现在我方就一定需要某种程度的"人性"
异端的8啦 S钢的Alice都是这样