Re: [闲聊] 人机大战观后杂感

楼主: devidevi (蜜蜜)   2017-05-28 15:09:20
※ 引述《Maybetrue (电子黑手)》之铭言:
: ※ 引述《hdjj (hdjj)》之铭言:
: 是一个灾难。比如说我们拿AG管理双北市的红绿灯,我们希望AG管理的红绿灯让交通更
: 顺利,结果一个突如其来的灾难,让AG耍憨了起来,搞得全双北市的红绿灯通通在乱闪
: 。这是绝对不可以的。以上周团体赛的结果来说,古力那一边的Alphago 就是在耍憨,
: 而且Alphago 不是软件工程师key 出来的函数库,它是自我学习的整体。我猜目前
: deepmind并没有能力修改AG让他能在逆境采取积极对策。因为如果去年AG被李世石挖到
: 发疯,今年重新再次自我学习应该也要把这一点改掉,但是结果并没有,只是用强大的
: 能力掩盖这个弱点而已。只要有个人类 (猪队友?)在旁边作乱,AG个体能力再强也要发
: 疯。但是,AG发疯是不被允许的。事实证明,AG如果傻掉,能力比常人还差。套用到更
: 大的系统面上去的话将会造成毁灭性灾难。
简单说一下原PO所说的问题点
目前deepmind的AG,在正常运作下没有问题
但发生意外,或突发状况时,AI并不会让损失减到最小,而是开始错乱...
没人可以保证完全不出任何意外,
但如果AI只有正常运作下没有问题
当有外力介入,产生意外时,AI并不能让损失控制到最小,并且产生错乱...
这是AG要解决的下一步问题..
作者: ykes60513 (いちご)   2017-05-28 15:11:00
不晓得虚竹那种自杀招能不能让AlphaGO错乱XD
作者: bxxl (bool)   2017-05-28 15:13:00
我觉得控制权切来切去,现在的飞机自动驾驶可能也会有问题吧但不代表这东西不能用,只代表你不能频繁的切来切去而已
作者: ilw4e (可以吃吗?)   2017-05-28 15:14:00
要控制损失就训练时给他其他条件就好阿,比方说放弃点胜率可是要求输的时候要输最少你要AI符合你想的去做,你给他的条件目标就要明确现在是条件太单纯:胜率极大+赢 他一切行为当然就照这个
作者: OROCHI97 (OROCHI97)   2017-05-28 15:28:00
如果赌钱,一目一千,AG大概都是把把都赢一点点那种是吧
作者: bxxl (bool)   2017-05-28 15:31:00
AI量产之后的确不会具备学习功能 AG也没有边下边更新不受控制的学习是很危险的,应该是厂商统一处理
作者: ilw4e (可以吃吗?)   2017-05-28 15:34:00
胜率低会那样就是你给的条件问题啊,你要他特殊情况符合你期待你就得给他其他条件阿,这不是基本逻辑吗?他是机器不是神,他还是照你给的脚本去学的阿:D
作者: bxxl (bool)   2017-05-28 15:35:00
这是目标函数的问题,胜率就代表不管输得多惨就是一败其实人类世界也有,比如说棒球比分差太多就派野手上去投这时就只求结束比赛,不会想再去缩小分差了. 俗称垃圾时间总之,你想要怎样的行为,就采用相应的目标函数,并且把各种极端状况该如何处理放入训练资料,练出来的才会是你想要的现在就是他的训练目标是A,你说他B的时候不行,改变的方法是把训练目标改成f(A,B), 一个综合考虑A跟B的函数
作者: wadashi1 (阿拉丁)   2017-05-28 15:47:00
如果能自始至终,完全斗狠,不下缓著的阿法狗,会精彩许多!
作者: ilw4e (可以吃吗?)   2017-05-28 15:58:00
AI互下的谱很多都很狠,互相杀龙XD
作者: lyricslee (奕)   2017-05-28 15:59:00
你怎么不懂...人家目标就是赢,你又要人家少输减少损失又不等于创造赢的机会
作者: ilw4e (可以吃吗?)   2017-05-28 16:06:00
那样代表你程式没写好,回去重写,AI没有好坏XD
作者: touyaman (とーやまん)   2017-05-28 16:12:00
为啥跳到讨论自动驾驶拉= = 到时候AI学习又是别的方法拉事实就是AI围棋已经无敌 以后开发出的自动驾驶也会比人自己开安全
作者: OverInfinity (超越无限)   2017-05-28 16:19:00
歹稍微了解一点深度学习是什么…自动驾驶来说你在训练阶段就要加入突发事件让他学啊
作者: bxxl (bool)   2017-05-28 16:29:00
感觉一直在鬼打墙,又没人说AG要去开车,AG也不是唯一的AI把目标函数换一换行为就会差很多,一直拿AG的行为去推演干嘛?
作者: vencil (vencs)   2017-05-28 16:46:00
等著看阿尔法AI学打星海,那才是自驾这样不完全讯息的类比至于拿围棋训练的AI比自驾根本不能类比
作者: rainycats (海狸个摩门特)   2017-05-28 16:59:00
用想像的你要不要去看一下网页https://waymo.com/ontheroad/实际上路测试就是在train. 理论上只要样本数够你想像得到的状况都会在里面另外还有一些其他的专利goo.gl/5xQrxX真实上路前铁定train了一般人一辈子都达不到的里程数如果还有发生无法处理的情况(飞机掉下来之类的)我跟你说AI处理不来的人只会更差....反正你要比出事率的话, 自动驾驶的出事率绝对比人低的多, 你来硅谷待久一点, 就可以看到无人车开来开去看到无人车比看到美国三宝开车令人安心多了
作者: nkfcc (球春..)   2017-05-28 17:09:00
你知道AG要拿去作什么了?
作者: ddavid (谎言接线生)   2017-05-28 17:18:00
自动驾驶就是目标函数的复杂度更高啊,你一直拿围棋的目标函数训练出来的结果谈自动驾驶根本就错置围棋的目标函数本来就不包括意外处理的部分,当然不会有意外处理的表现AlphaGo表现好确实不能表示100%转为自动驾驶的目标函数后一定也可以训练到同等级好,但反之在AlphaGo上出现的缺点(事实上在围棋来说甚至不算缺点)也同样并不会保证在改变为自动驾驶的目标函数后还会出现
作者: chris610020 (可悲的阿明)   2017-05-28 17:28:00
自动驾驶比围棋....围棋能开图,自动驾驶能吗?
作者: aegis43210 (宇宙)   2017-05-28 17:31:00
deepmind目前想走的是医疗和星海争霸哦
作者: ddavid (谎言接线生)   2017-05-28 17:37:00
Starcraft 2那个也只是过程而已,跟围棋一样是验证学习能力以及宣传居多
作者: wz02022 (Jeter)   2017-05-28 18:37:00
没错阿 AG的确有这个缺陷 所以人工智能还可以进步很多
作者: y800122155 (@__@)   2017-05-28 21:47:00
嘘 胜负分类问题 跟 输赢目数回归问题 完全不一样 懂?
作者: CGary (下雨天也挺浪漫的)   2017-05-28 23:40:00
SC2 之所以值得试是因为不完全公开资讯游戏在电脑看起来难度很高 我们觉得SC2比围棋简单是我们的“设计”理念跟电脑不同...
作者: jake255121 (微花猴杰)   2017-05-29 03:01:00
输得少但绝对不会赢的步为啥要去下,就事论事
作者: mm58307533   2017-05-29 12:27:00
输了就直接认输了吧,盘面差很多还继续下??

Links booklink

Contact Us: admin [ a t ] ucptt.com