楼主:
reinhert (史丹佛的银色子弹)
2016-03-13 22:40:57※ 引述《wnglon (冷面笑匠)》之铭言:
: http://www.techbang.com/posts/41961-man-machine-war-world-war-iv-li-shishi-won
: 从新闻上的图来看 右上黑子看起来把右上角围起来了
: 所以ai误认自己有70%的胜率 所以一直下
: 直到51、57、49、47、87、89、93、101手的8颗黑子死棋后才发现自己下错
: ai就是认为自己已经把右上角围起来了(从43手黑棋算起
: 有经过65手、81手、57手、87手、直到101手 黑棋真的有围成一个领地)
: 却不知道这样下会让自己惨败
: 写程式的人通常会遇到这种逻辑矛盾问题
: 才会让程式有bug
这种把下棋逻辑写死在程式内已经很早之前的方法了
事实上越复杂的事情根本不可能这样处理
特别是你根本不知道问题的Pattern或要处理的计算量太大的时候
所以之前的围棋软件才会无法挑战人类
AlphaGo是用了现代的ML技术去做出来的
也就是透过大量的统计资料让算法自己去适应这些资料来得出比较好的结果
这和手写逻辑是完全不同的
在这种情况下机器会判断出什么只有等结果出来才会知道
一般围棋逻辑或术语或行为,比方如之前提到的打劫问题
对AlphaGO来说都是"没有意义"的,它并没有"意识"到这些问题
AlphaGo要处理的只有把棋下在哪会提高胜率
只是他经过处理后得到的结果
让人类"看起来"像是在做那些行为而已