※ 引述《ykes60513 (いちご)》之铭言:
: 这几天 AI又带给了大家新的冲击
: AlphaGo又再次进化了 而且远超乎大家的想像
: 显然之后AI会更加深入这块圈子
: 影响只会越来越广 不得不深思要怎么看待这场新的革命
: 虽然有些人说AI能使围棋的发展更进一步 但坦白说我是有些悲观的
: 因为从本质上AlphaGo就跟人类差太多了
: 首先 AlphaGo的算法是追求胜率最高
: 假设A走法有90%赢一目 B走法有85%赢十目 AlphaGo会选前者
: 因为对它来说目数不重要 只要能赢就够了
其实这也不算颠覆的概念,学棋的时候老师也会教你,杀了大龙或大幅领先几
乎胜定的时候,你甚至可以自己走几手单官来确保杀得干干净净不会出棋
只是人的行棋没有电脑那么精准,对棋力低的可能领先二十目才能下得这么保
守,不然很可能被翻盘。高手可能十目就能保持胜势,对电脑可能就是两目他
就可以这样下了
: 另外 AlphaGo都是在做全域运算 它没有局部的概念
: 这两点就跟人类的思考方式南辕北辙
: 难怪有人看了AlphaGo的棋感叹 之前所学的都是错的
: 就因为两者的基础点不同 也可说是算法的不同 当然演化出来的棋路会有差别
我觉得说他没有局部概念也不正确,AI取点模拟的时候不会全盘每个点都等价
,他用训练出的棋感来猜的时候局部的点一定猜得多。只是说他的模拟方式是
全局下完而已
"过去学得都是错的"我觉得只是柯洁夸饰性的说法。AI多数行棋也还在人的理
解范围,会有下完不知道怎么输的原因就是他棋力更高。就像低段跟高段下,
明明感觉每个区域都是照定石走,可是就是下不赢这种感觉吧,因为对方子效
就是比你高
当然一定会有颠覆的地方,因为人类对前期的下法好坏本来就是模糊不太确定
的,看布局跟定石都是一阵阵流行的就很明显。有时候过去觉得不好的定石重
新被拿出来用,结果变成标准型,就知道人对这种东西的判断是不准确的
比方说AI的五路尖冲,过去棋理告诉人说被四路围空是吃亏的,但或许这是建
立在一般人对外势的运用效率不够好的原因下。看AI的对局,它的外势不是最
终成空就是能配合攻击在其他地方取利。人类当然也知道攻击取利顺势围空这
些道理,但看AI的对手的外势常常最后就变单官或是两眼做活,这就是棋力差
异造成的
: 而哪边更加接近围棋之神呢 相信AlphaGo已给出了答案
: 你可以说人类一直都用错误的方法学围棋
: 但这是人类生理上的拘限性所导致的
: 我们几乎永远不可能像AlphaGo那样思考
: 比起目数 胜率那种东西是虚无飘渺的 人类又怎么能量化呢
: 当然只能计算目数
: 所以说要向AI学习 我是有些疑问的 要怎么学呢
: AlphaGo会告诉你要那样下 但为什么? 不知道
: 你没法把AlphaGo的棋路内化 因为思考模式就不同
: 顶多只能依样画葫芦
: 这样的学习效果是有限的
人类不可能用胜率模拟,所以目数是最精确的评估了。人类在小区域对目数的
判断应该是可以更胜电脑的。比方说一个手筋可以掏掉几目、每个官子价值多
少、局部死活,这些都是人类已经用穷举法确定的东西了。只要电脑是用机率
在模拟,这些部分就不会超过人类(人类自己眼残或脑袋打结的情况先忽略XD)
能不能照学的确是有疑问的,像前面说的,人学AI抢了外势,理论上不亏,可
是人类能将那道墙运用得跟电脑一样好吗?或是像点三三,AI说下完先手他不
亏,但你棋力不到,你抢了先手却占不到急场,那你的先手价值就不像AI模拟
的能提高胜率了。也就是说要学AI可能不能只学个走法,你得把他后续的整个
应用的方法稍微搞懂这样学了才有意义
: 我想过如果AlphaGo不追求最大胜率 而是最大目数的话会如何
: 这样发展出的围棋会不会更接近人类呢
: 这样的发展或许会很有意思
: 相对的 我们对人类至今发展出的围棋也不需太过悲观
: 虽然旧的棋路 定石在AlphaGo 甚至围棋之神眼中或许是错的
: 但我们还是得拥抱它
: 因为我们是人类
: 不是AlphaGo
我猜测AI反复使用的型应该是他确定有好处的下法,可以研究。但不见得他每
个走法都是最优。其实从AI的下棋逻辑就可以理解,他既然是靠机率,选的就
不一定是"只此一手"最佳解,只是通常能选到"相对佳"的着手。
人类为什么下不赢呢?因为人失误更多,可能某个区域人类细算后选到更佳解
或最佳解赚了三目,但其他小地方一下亏五目一下亏两目,那盘面还是一直被
牵着走。
其实人类也是求胜而不是追求最大目数,人类会想多追目是因为目数领先越多
对人类来说等同胜率越高,也就是人类很清楚意识到自己会失误所以留给自己
缓冲失误的空间。