Re: [闲聊] 人机大战观后杂感

楼主: Maybetrue (已婚)   2017-05-28 14:40:07
※ 引述《hdjj (hdjj)》之铭言:
: : → devidevi: AI选择投子之后,已经认为没有赢的希望.... 05/27 23:18
: : 推 HeterCompute: 说句实话,AlphaGo想要投子的时候古力是真的完全没 05/27 23:19
: : → devidevi: 对AI而言怎么下都是输,这样不算是BUG吧 05/27 23:19
: : → HeterCompute: 机会了,古力只是想要整理一下心情,毕竟从大优变成 05/27 23:19
: : → HeterCompute: 输棋,那时差距已经二十目了,不可能逆转的 05/27 23:20
: 不是有意抬摃,但这里是有盲点的。
: 这局棋就是个很明显的例子。在人机配对赛里,人就是最大的变量。暂且不论时力
: 故意自紧一气自填一眼的极端例子,以人加机器这样的组合,只要是人,就有可能
: 出错,或是下出缓著。
: 今天配对的是两位高手,所以这样的情况并不明显,换成两位业余棋手上去,可以
: 预期出现意外翻转的可能性更高。
: 这在现实应用上的意义更深远。以自动驾驶为例,AI在判定时也许总是可以做出
: 最佳决策,但总是有突然冲出的老人,油门当煞车踩的新手,硬闯红灯的死小孩。
: 在类似这种情况下,防御性的应对,柔软性的妥协忍耐,都是极为重要的。
: AI在逆境劣势里的反应,是一个很重要的课题。应该没有人愿意看到,输给李世
: 石的AI发神经的样子。因为这和AI“求胜”的原始指令是有所冲突的。
: 只是这讨论下去没完没了。这种事,还是留给黄博士这种专业人士伤脑筋吧。XD
虽然AG五局全胜,但是就内容来说,大家不得不觉得AG确实存在着弱点。这些弱点究竟
该怎么说呢?我想就是一个:“没尽全力。”如果以后AG是要用来服务人类,增进人类
福祉的话,AG这一个弱点会让人觉得信用不够。而且这个弱点若是没有被解决的话,很
可能不能被用来作自动化服务的人工智能。
一个超强的AG可以当工程师,但是却绝对不能当管家。今天我们要人工智能绝对不是解
决单一问题,而是可以综观全局的管家。如果AG搞不定百万分之一出现的意外,那绝对
是一个灾难。比如说我们拿AG管理双北市的红绿灯,我们希望AG管理的红绿灯让交通更
顺利,结果一个突如其来的灾难,让AG耍憨了起来,搞得全双北市的红绿灯通通在乱闪
。这是绝对不可以的。以上周团体赛的结果来说,古力那一边的Alphago 就是在耍憨,
而且Alphago 不是软件工程师key 出来的函数库,它是自我学习的整体。我猜目前
deepmind并没有能力修改AG让他能在逆境采取积极对策。因为如果去年AG被李世石挖到
发疯,今年重新再次自我学习应该也要把这一点改掉,但是结果并没有,只是用强大的
能力掩盖这个弱点而已。只要有个人类 (猪队友?)在旁边作乱,AG个体能力再强也要发
疯。但是,AG发疯是不被允许的。事实证明,AG如果傻掉,能力比常人还差。套用到更
大的系统面上去的话将会造成毁灭性灾难。
作者: ilw4e (可以吃吗?)   2017-05-28 14:44:00
这不是没尽全力,他的下法完全符合他"要赢"的目标
作者: KAOKAOKAO (鬼斗)   2017-05-28 14:45:00
如果接下来都给他下他会稳稳守住赢面套你红绿灯的例子 都已经全部给他管了 还有人插手?
作者: bxxl (bool)   2017-05-28 14:46:00
红绿灯发疯现在的系统就会啦,根本就可以接受
作者: KAOKAOKAO (鬼斗)   2017-05-28 14:46:00
插手之后出问题 说是原本的规划的问题?
作者: LeeSeDol (啧啧...)   2017-05-28 14:50:00
阿法狗是为了赢而尽全力,不是为了赢最多目而尽全力
作者: bxxl (bool)   2017-05-28 14:50:00
现在很多非AI的电子系统也有可能发生大当机,也要接受雷击
作者: shyangs (厚呦)   2017-05-28 14:51:00
这样发动战争发现打到剩一人会赢, 不能透过外交干预
作者: ilw4e (可以吃吗?)   2017-05-28 14:51:00
所以要对人学棋更实用应该加个要多赢的目标给他,但跟胜率
作者: bxxl (bool)   2017-05-28 14:51:00
断电等突发状况考验, 怎么验证大系统的稳定度,早有一套方法
作者: ilw4e (可以吃吗?)   2017-05-28 14:52:00
的取舍要怎么调整就不确定了
作者: shyangs (厚呦)   2017-05-28 14:52:00
因为外交干预, 会把剩一人会赢变大败
作者: bxxl (bool)   2017-05-28 14:52:00
没有人笨到未经验证就把AI丢上去
作者: shyangs (厚呦)   2017-05-28 14:56:00
显然李世石验证后, google没有fix, 只做了workaround
作者: bxxl (bool)   2017-05-28 14:57:00
因为本来就不是程式有漏的那种bug,只是资料点不够,造成误判他们就是作了一只anti-AG,尽量产生原AG不会走的棋步
作者: shyangs (厚呦)   2017-05-28 14:59:00
用到其他领域一样会从算法处出问题
作者: javatea (齁齁)   2017-05-28 15:16:00
.....
作者: DendiQ (貔貅)   2017-05-28 15:44:00
你的目标跟 google 设定的又不同
作者: OverInfinity (超越无限)   2017-05-28 15:45:00
....
作者: DendiQ (貔貅)   2017-05-28 15:45:00
你想要每盘都爆胜,可他们只设定要赢而已
作者: Nobel108   2017-05-28 15:49:00
你如何知道“没尽全力”的这种看似让法不正是人类棋手所缺少的?
作者: ilw4e (可以吃吗?)   2017-05-28 15:55:00
不是人类缺少,而是对人类没意义。人类前期计算力没精确到可以完美控制胜势,而后段官子人类穷举法跟机器一样好也不会去学机器那种走法
作者: ksm (卡西姆)   2017-05-28 16:23:00
1.目标不同 2.即使没尽全力也比人类最佳决策好
作者: ilw4e (可以吃吗?)   2017-05-28 16:53:00
不会比较好,人类官子只要不误算常常能满足上帝穷举法取决计算复杂程度,只要人类能穷举的必优于或等于AI机率决策
作者: s891234 (嘟噜咑)   2017-05-28 17:03:00
。。。目标不同罢了
作者: ddavid (谎言接线生)   2017-05-28 17:13:00
目标设定就是赢,而他赢了你说没尽全力?我们确实不知道如果把目标改成最高目数胜来重新训练的话,AlphaGo会有什么表现确实很让人想看,但那是完全不同问题人类会追求最高目数事实上只是算不清而怕被翻盘的恐惧罢了,想着能赚时尽量赚来补充失误时还回去的部分
作者: louis210000 (louis210000)   2017-05-28 17:22:00
两回事
作者: Sechslee (キタ━━(゚∀゚)━━!!)   2017-05-28 18:47:00
搞不懂状况
作者: sifone7251 (sifone)   2017-05-28 18:53:00
只能说你连AG确实已经用他的方式"全力"求胜都看不懂
作者: Kydland (RBC)   2017-05-28 19:01:00
Google干嘛烧钱去打造一个下棋超级完美的电脑......重点在于多元的应用 围棋只是这个计画的初步探索而且至少目前看来这套算法理论是有用的你说他下烂棋摆烂 退让 但有差吗 还是赢了不要下到输棋这么离谱的失误就够了退让退到输 那就一定是有问题Google不是来兜售围棋软件的好吗.......Google的投资人看Google烧300亿做围棋软件 不气死才怪
作者: y800122155 (@__@)   2017-05-28 21:45:00
不要发废文...

Links booklink

Contact Us: admin [ a t ] ucptt.com