Re: [问题] 赢少目的胜率会高于赢多目的胜率?

楼主: BluffKing (中肯王)   2017-05-26 23:07:48
原PO底下推文不够精辟 耻于同流另回一篇
※ 引述《solomn (九米)》之铭言:
: 看了讨论文
: 说AI只考虑胜率
: 那么为什么赢少目的胜率会高于赢多目的胜率?
: 棋理是如何解释
: 谢谢
这跟“棋理”没有关系 是AG的运算模式所造成
简单讲就是剪枝对胜率影响的效果在某些时候会大过目数对胜率的影响效果
比如说今天要收官了 盘面大概AG赢20目
假设这时候有两个选点:
A点:先手5目,可是后续一套比较复杂
B点:后手-5目,而且盘面上明显在送,但可以减少10M个节点的计算量
由于AG“只管赢棋不管赢多少”的目标设定
经过胜率计算后很可能反而去选B点这种莫名其妙送菜的点
因为反正它现在还赢20目
它不需要去冒这10M个节点的计算风险 搞不好其中有杀龙翻盘手段
请注意...哪怕狗狗的TPU算度再强
程序本身所使用的蒙地卡罗法并没有人类所谓“局部算清”的这种概念
它永远面对的是仍有无数可能著点的全域...
在没有办法穷举的情况下
大量减少分枝但是还可以赢的著点 虽然表面上在送
对电脑来讲反而是最没有风险的著点
这种为了减少计算量进行退让的事情其实人类职棋也是常常在干...
你看那读秒阶段 胜势一方真的有办法处处局部算清官子滴水不漏????
哪有可能~~~~~~~~
几乎多少都会送一点 换取棋形的稳定
............只是说职棋送著送著送到被翻盘屡见不鲜
AG貌似送了一堆而且送的很荒谬但还是很稳
最后回到所谓“棋理”的部分...
所谓“棋理”我个人定义为穷举后的最佳手法
在开局阶段无论电脑或人类都不可能进行穷举......
所以即使是AG也只能说是近于道 无法真正描述什么是道
可是官子阶段就不同了...
不只是职棋有办法凭借强大的局部计算能力算清
旧式的以暴力计算为基础的围棋软件更是滴水不漏
我觉得AG应该设定成:
比如说它觉得胜利(或认输)的标准是70%(或30%)
那接下来的游戏进程就交给另一套以暴力计算为基础的软件来进行目数极大化的工作
以免后续的官子根本不能看XD
如果觉得这样不保险
甚至可以尝试写一套判断何时应该切换模式的学习程序让AI学习...
只要抓住了转换模式的时机
以AG强大的硬件配备跑暴力计算软件 在后盘血虐职棋根本不是梦!
有梦最美...让我们期待见证“棋理”的那一天!
哈哈哈哈~~~~~~~~
作者: darkseer   2017-05-26 23:11:00
最后一段的学习程序可能有点困难? 既然不切换下也赢,说不定它自己稳定的学习结论就是永远不切换 :p或者说缺乏适合的对练对象来进行这个学习
作者: ilw4e (可以吃吗?)   2017-05-26 23:20:00
精辟你__,废话一堆
作者: Uizmp (黑袍法师)   2017-05-26 23:21:00
我倒是觉得因为双方接近的棋局, alphago展开的分支比较详尽
作者: LeeSeDol (啧啧...)   2017-05-26 23:22:00
谢谢你另回这篇可以放心嘘
作者: Uizmp (黑袍法师)   2017-05-26 23:23:00
在新版本学习的过程中,被原本系统评估胜率过低而投降局
作者: doom3 (ⓓⓞⓞⓜ③ )   2017-05-26 23:23:00
最后不太可能 Google想做学会下棋的AI 不是完美的下棋机器
作者: shyangs (厚呦)   2017-05-26 23:37:00
大优势和大劣势行棋 AG 不会. 因为大劣势的AG会投降所以大优势, 大劣势行棋永远不会学习到网络中
作者: Uizmp (黑袍法师)   2017-05-26 23:41:00
目前看来AG只学到从头开始稳稳赢,还有胜率过低的时候会投降
作者: aegis43210 (宇宙)   2017-05-26 23:45:00
绝艺就是类似这样的设计,所以死活问题很严重
作者: OROCHI97 (OROCHI97)   2017-05-26 23:49:00
重点是,谁能让AG大劣势投降....
作者: shyangs (厚呦)   2017-05-26 23:53:00
优势退让, 劣势送头. 最后学到半目胜
作者: hotisaac   2017-05-26 23:54:00
关键点:谁能让阿法狗出现大劣势 这已经是不可能的了
作者: shyangs (厚呦)   2017-05-26 23:55:00
李世石, 三宝, 医疗, 太空
作者: Uizmp (黑袍法师)   2017-05-26 23:56:00
看后续数据会不会公布今天配对赛有没有风向大逆转
作者: ilw4e (可以吃吗?)   2017-05-26 23:58:00
在版上发5篇篇篇废文也不简单
作者: HeterCompute (异质运算)   2017-05-27 00:18:00
你的最后一段毁了这篇......
作者: MicroB ( )   2017-05-27 00:29:00
收官时 如果都算清了 所谓多五目但有风险是何种风险?如果到官子时真的都算清了 送5目和多拿5目胜率应该都是100在胜率100时决策方式任意选或是单纯选计算复杂度低吧若是官子时还有机率问题表示以AG算法那时也还没算清吧?
作者: indium111 (#ttyhg)   2017-05-27 00:35:00
如果都算清了,赢1目和赢10目对电脑都是一样的
作者: MicroB ( )   2017-05-27 00:36:00
其实设个门槛当胜率到100时在100的步中选赢最多的
作者: indium111 (#ttyhg)   2017-05-27 00:36:00
乱下就很合理了,只要不乱下到会输棋就可以了
作者: MicroB ( )   2017-05-27 00:37:00
是都一样 所以没必要特别选1目的啊 所谓赢10目有风险那是没把赢10目那个算清吧
作者: HeterCompute (异质运算)   2017-05-27 00:37:00
因为你根本不懂官子要好到底是要加强MCTS还是VN啊
作者: indium111 (#ttyhg)   2017-05-27 00:37:00
对于AG组成之一的MCTS,结果只有胜和败两种,不存在赢多少目和输多少目的差别或许这就是AG在自觉必胜和必败时会出现乱下的原因吧
作者: MicroB ( )   2017-05-27 00:41:00
若是在人类可"算清"的情形还有MCTS决策 是否有极为小可能的机率在AG必胜时意外下错让人反败呢? 因为人已算清但MCTS仍有机率巧合?
作者: indium111 (#ttyhg)   2017-05-27 00:44:00
当盘面越小时,MCTS的胜率估算会越接近真实的机率而且Alphago不是只有MCTS而已,还有深度学习的两套网络
作者: MicroB ( )   2017-05-27 00:47:00
若是真可算清 真实机率就是100 那MCTS给的就是99.9和99.8我的意思就是比方说在MCTS机率大于99时 让VN做主
作者: ksm (卡西姆)   2017-05-27 00:49:00
我会定义棋理为无法穷举下大多情况下的近似最佳解
作者: indium111 (#ttyhg)   2017-05-27 00:53:00
人类对于最佳解的定义和AG不一样吧,除非AG打掉重练
作者: aegis43210 (宇宙)   2017-05-27 01:19:00
重点还是RL策略网络的强度,愈强就愈不依赖MCTS深度学习是为了让AI能用直觉赢得比赛而不是更加强化搜寻的准确度,那要等量子电脑实用化了
作者: iamstudent (stu)   2017-05-27 01:34:00
玩RTS兵力赢太多时可以不用控兵辗过去,亏也没关系
作者: ykes60513 (いちご)   2017-05-27 03:27:00
180打120人口怎么输 飞龙骑脸也赢了 老子专业解说!!
作者: mathbug (天堂的定义)   2017-05-27 06:32:00
解释得很清楚
作者: shehrevar (阿浩)   2017-05-27 07:24:00
我看比赛改成柯洁让阿法狗3子好了,最后胜负在2目之内,反正赢棋的局面狗就乱放子
作者: tim32142000 (许B)   2017-05-27 08:13:00
感觉原PO算法懂很多,加个收官模式,随局面切换,然后判断何时用什么模式的精确度够高,就又会赢又能赢很多目了
作者: xhakiboo (xhakiboo)   2017-05-27 08:39:00
红明显 还是很多人觉得赢就是要赢到最多(?
作者: tim32142000 (许B)   2017-05-27 08:41:00
收官损目可以说AlphaGo收官能力不如职业棋士吗?还是宁愿损目也要抢先手是更高强的棋艺?在人工智能上,减少硬件的计算负担的确很重要对AG开发团队,能用最少的计算量确保一定获胜,应该是他们的终极目标?
作者: indium111 (#ttyhg)   2017-05-27 08:54:00
以计算来说,不管是下在哪里都是在减少分枝吧个人觉得出现官子乱下最大的原因还是在于MCTS
作者: Kydland (RBC)   2017-05-27 10:07:00
只要赢就好 这对于设计程式比较简单 干嘛去下一堆设定更何况人工智能虽然进步飞速 都还是在开发阶段 确立简单可执行的目标比设定一堆目标还来得实际多而且这本来就不是只为了陪人类下棋设计的赢越多越好 那AG就会下超猛的 从头猛到尾这又更不像人类了
作者: yenchieh1102 (香蕉史塔克)   2017-05-27 10:37:00
好奇原po从什么资料位基础做出这篇分析(?
作者: ssccg (23)   2017-05-27 11:45:00
单纯是目标设定问题,AG目标就只有估计胜率,胜率接近到它分不出来的都是一样的,没有特别因为什么理由选什么变化都只是从一堆以目标来说都一样的变化随机选而已
作者: kenco (最近走希腊风)   2017-05-27 12:33:00
现在目标根本是设定赢最少目吧
作者: Uizmp (黑袍法师)   2017-05-27 12:37:00
那是因为赢多的时候AG早就投降了
作者: bxxl (bool)   2017-05-27 12:53:00
可以看deepmind CEO演讲, 他们的目标是通用型AI平台希望作的东西可以应用到其他地方,且尽量靠算法自己学规则而不会把人类经验规则写进去可以推测他们不会把alphago打些补丁变成人类理想的高手这件事会变得太过特化,对他们的长远目标没价值
作者: Uizmp (黑袍法师)   2017-05-27 13:01:00
围棋特化可能绝艺那边会比较有兴趣
作者: aegis43210 (宇宙)   2017-05-27 14:34:00
会一直朝最强围棋软件前进的只有zen吧,zen7快出吧
作者: CGary (下雨天也挺浪漫的)   2017-05-27 15:02:00
但换个角度想 如果你想要局部优化 就很难建立真正的大局观当然你可以设计一个转换模式算法训练他 但每个转换都是不精确的
作者: KMSNY (MSN+KY)   2017-05-27 15:53:00
转换模式跟deepmind理念背道而驰
作者: Kydland (RBC)   2017-05-28 13:24:00
C大讲得没错 局部计算 电脑绝对做得到重点是从以前大家都觉得电脑做不到大局观所以真正的挑战是建立大局观 这才是AG的价值AG证明他们的算法可以让电脑模拟人类的棋局判断这就很厉害了 至于旁枝末节的局部计算对围棋或许很重要 但这不是Google团队真正要做的只要不要太离谱下到输棋 这一点点和人类不一致无伤大雅要记住 Google不是烧钱设计电脑来下棋的它们要做的是把这一套算法应用到不同领域

Links booklink

Contact Us: admin [ a t ] ucptt.com