很多觉得AI退让或乱下的,真要怪可能要去怪google,因为google这个AI的
基本要求和人类期望看到的神之电脑不完全相同,这个AI能做到的就是像柯
洁说的:让人类对手下起来觉得毫无希望。
就像在比赛车
棋界期望中的AI是:
展现完美甩尾技巧,加速减速时机也完美掌控,跑出最佳时间让人看看高手
的差距有多少
但实际上这个AI是:
只求赢,不追求完美。和人类车子竞争激烈时会展现高超技巧设法领先;
一旦超出几个车身后就故意慢慢开用屁股挡人,让落后的人比得很不爽;
而如果AI落后更不会好好跑完比赛,会开始试怪招,冲撞前面的车子,期望
对手被撞翻,对手没翻的话自己撞那下就更落后
所以期待和现实有不少差距
人下棋某种程度就像棋灵王说的,是追求"神乎其技"的境界。我们知道这是
个有唯一解的游戏,所以从尾盘往序盘探索,从区域往全局推演,都是从人
类确定的已知去探索未知,都希望摸索并找到"最佳的"一手或"最好的"变化
但这个AI只有在势均力敌下的着手才较能满足人类的这块好奇心。只要胜率
两方有差距后电脑只求满足赢的条件下选的都不见得是局部最佳解。于是胜
率拉开后的棋对人类学习都没什么帮助了,但人类希望的是就算全局大势已
定,在区域还是想看到AI展现计算过后的最佳下法帮助解惑,明显AlphaGo
的默认条件无法满足这点
据说中国的伪物绝艺似乎赢的时候不太会退让(这我没关心不太确定,印象
中看过这说法)。所以也许未来参考DeepMind论文开发出来的其他AI,如果
设定让AI追求的不单纯是胜率,对人类从机器学棋可能会有更多实际帮助