Re: [讨论] 浅谈AlphaGo

楼主: ilw4e (可以吃吗?)   2017-01-05 14:05:59
※ 引述《ykes60513 (いちご)》之铭言:
: 这几天 AI又带给了大家新的冲击
: AlphaGo又再次进化了 而且远超乎大家的想像
: 显然之后AI会更加深入这块圈子
: 影响只会越来越广 不得不深思要怎么看待这场新的革命
: 虽然有些人说AI能使围棋的发展更进一步 但坦白说我是有些悲观的
: 因为从本质上AlphaGo就跟人类差太多了
: 首先 AlphaGo的算法是追求胜率最高
: 假设A走法有90%赢一目 B走法有85%赢十目 AlphaGo会选前者
: 因为对它来说目数不重要 只要能赢就够了
其实这也不算颠覆的概念,学棋的时候老师也会教你,杀了大龙或大幅领先几
乎胜定的时候,你甚至可以自己走几手单官来确保杀得干干净净不会出棋
只是人的行棋没有电脑那么精准,对棋力低的可能领先二十目才能下得这么保
守,不然很可能被翻盘。高手可能十目就能保持胜势,对电脑可能就是两目他
就可以这样下了
: 另外 AlphaGo都是在做全域运算 它没有局部的概念
: 这两点就跟人类的思考方式南辕北辙
: 难怪有人看了AlphaGo的棋感叹 之前所学的都是错的
: 就因为两者的基础点不同 也可说是算法的不同 当然演化出来的棋路会有差别
我觉得说他没有局部概念也不正确,AI取点模拟的时候不会全盘每个点都等价
,他用训练出的棋感来猜的时候局部的点一定猜得多。只是说他的模拟方式是
全局下完而已
"过去学得都是错的"我觉得只是柯洁夸饰性的说法。AI多数行棋也还在人的理
解范围,会有下完不知道怎么输的原因就是他棋力更高。就像低段跟高段下,
明明感觉每个区域都是照定石走,可是就是下不赢这种感觉吧,因为对方子效
就是比你高
当然一定会有颠覆的地方,因为人类对前期的下法好坏本来就是模糊不太确定
的,看布局跟定石都是一阵阵流行的就很明显。有时候过去觉得不好的定石重
新被拿出来用,结果变成标准型,就知道人对这种东西的判断是不准确的
比方说AI的五路尖冲,过去棋理告诉人说被四路围空是吃亏的,但或许这是建
立在一般人对外势的运用效率不够好的原因下。看AI的对局,它的外势不是最
终成空就是能配合攻击在其他地方取利。人类当然也知道攻击取利顺势围空这
些道理,但看AI的对手的外势常常最后就变单官或是两眼做活,这就是棋力差
异造成的
: 而哪边更加接近围棋之神呢 相信AlphaGo已给出了答案
: 你可以说人类一直都用错误的方法学围棋
: 但这是人类生理上的拘限性所导致的
: 我们几乎永远不可能像AlphaGo那样思考
: 比起目数 胜率那种东西是虚无飘渺的 人类又怎么能量化呢
: 当然只能计算目数
: 所以说要向AI学习 我是有些疑问的 要怎么学呢
: AlphaGo会告诉你要那样下 但为什么? 不知道
: 你没法把AlphaGo的棋路内化 因为思考模式就不同
: 顶多只能依样画葫芦
: 这样的学习效果是有限的
人类不可能用胜率模拟,所以目数是最精确的评估了。人类在小区域对目数的
判断应该是可以更胜电脑的。比方说一个手筋可以掏掉几目、每个官子价值多
少、局部死活,这些都是人类已经用穷举法确定的东西了。只要电脑是用机率
在模拟,这些部分就不会超过人类(人类自己眼残或脑袋打结的情况先忽略XD)
能不能照学的确是有疑问的,像前面说的,人学AI抢了外势,理论上不亏,可
是人类能将那道墙运用得跟电脑一样好吗?或是像点三三,AI说下完先手他不
亏,但你棋力不到,你抢了先手却占不到急场,那你的先手价值就不像AI模拟
的能提高胜率了。也就是说要学AI可能不能只学个走法,你得把他后续的整个
应用的方法稍微搞懂这样学了才有意义
: 我想过如果AlphaGo不追求最大胜率 而是最大目数的话会如何
: 这样发展出的围棋会不会更接近人类呢
: 这样的发展或许会很有意思
: 相对的 我们对人类至今发展出的围棋也不需太过悲观
: 虽然旧的棋路 定石在AlphaGo 甚至围棋之神眼中或许是错的
: 但我们还是得拥抱它
: 因为我们是人类
: 不是AlphaGo
我猜测AI反复使用的型应该是他确定有好处的下法,可以研究。但不见得他每
个走法都是最优。其实从AI的下棋逻辑就可以理解,他既然是靠机率,选的就
不一定是"只此一手"最佳解,只是通常能选到"相对佳"的着手。
人类为什么下不赢呢?因为人失误更多,可能某个区域人类细算后选到更佳解
或最佳解赚了三目,但其他小地方一下亏五目一下亏两目,那盘面还是一直被
牵着走。
其实人类也是求胜而不是追求最大目数,人类会想多追目是因为目数领先越多
对人类来说等同胜率越高,也就是人类很清楚意识到自己会失误所以留给自己
缓冲失误的空间。
作者: aaaba (小强)   2017-01-05 14:10:00
“他用训练出的棋感来猜的时候局部的点一定猜得多” 这句的局部是指什么?
作者: aegis43210 (宇宙)   2017-01-05 14:12:00
的确人类很难精确评估形势,只能努力确保安全边际
作者: sky0302 (free)   2017-01-05 14:15:00
只有结论不同意 人类追求最大目数 是艺术完美性的要求^^
作者: aegis43210 (宇宙)   2017-01-05 14:16:00
柯洁是因为急性肠胃炎住院,可能是计算到胃痛吧
作者: indium111 (#ttyhg)   2017-01-05 14:24:00
现代超级电脑有约1000万颗CPU,AG的电脑只算小咖而已
作者: jiaching (周末要好好玩了)   2017-01-05 14:25:00
简单说明一下AlphaGo 主要的机制有2个 policy network和
作者: birdy590 (Birdy)   2017-01-05 14:25:00
它里面用的自制 TPU 很重要啊~ 一般的超级电脑又没有
作者: jiaching (周末要好好玩了)   2017-01-05 14:26:00
value network olicy network会根据所学的棋谱预测对手可能的落点位置(相当于人类棋士的经验)value network则根据policy network所提供的落点位子评估出最佳的落点位置(相当于人类棋士的计算能力)
楼主: ilw4e (可以吃吗?)   2017-01-05 14:28:00
知道有policy network,但对实际怎么预测不太确定XD
作者: indium111 (#ttyhg)   2017-01-05 14:28:00
AG在硬件上进步空间还很大,不过现在也不需要了
作者: jiaching (周末要好好玩了)   2017-01-05 14:30:00
policy network靠所学的棋谱为依据 然后在19*19的棋盘上挑选出对手最有可能的落点位置
楼主: ilw4e (可以吃吗?)   2017-01-05 14:34:00
但印象中棋谱不是数据库,只是训练他参数的工具,最后他怎么用参数可以每步做出选点预测的,这很神
作者: aaaba (小强)   2017-01-05 14:48:00
我先推。不过我想说棋感网络如果不是打劫的情况,根本连前几手战到哪边都不知道,他只知道盘面不知顺序。他会落子在你所谓局部,是因为在他全局考虑到的位置里,那个局部恰好最大也就是说假设调换顺序,把当前局部在前十手摆完再下剩下的步数,让alphaGo接手,他是很可能去补棋局前十手的局部,因为那里碰巧最大所以假设重摆顺序后,要点在左上一到十手附近,然后再摆棋牌右下有一些接触战,棋感网络不会侧重那些接触战的
作者: birdy590 (Birdy)   2017-01-05 15:15:00
policy network 只是大概用猜的 反正只影响验算顺序
作者: ForeverOrz (Lumis eterne)   2017-01-05 15:16:00
这篇分析合理推个,阿法狗最颠覆的还是以前人类引以为傲的中盘攻杀 AI完全无法 但现在反而是人类当机个一两手缓手就被压着打到最后,实在可怕
作者: aaaba (小强)   2017-01-05 15:19:00
对啊,我是想强调电脑没有什么“告一段落”的概念,目前盘面全局哪里看起来大就优先验算那边,而非关当前战场在哪儿
楼主: ilw4e (可以吃吗?)   2017-01-05 15:33:00
下快棋中盘攻杀本来就算不清,没什么引以为傲吧
作者: ForeverOrz (Lumis eterne)   2017-01-05 15:40:00
我只是想强调以前围棋AI无法突破的就是中盘攻杀,布局定石有模有样到中盘人类随便下都赢,但现在不是了

Links booklink

Contact Us: admin [ a t ] ucptt.com