[问题] AlphaZero如果突然给它20x20的棋盘

楼主: dharma (達)   2019-06-15 14:32:45
这个演示非常令人惊讶,但哈萨比斯还是有所保留。如果虚拟平板略微往上移动一点点,
程式就会失败。DeepMind程式所学到的技能是如此受限制--它甚至无法对环境的微小变
化(比人类走路时对环境产生的微小影响还小)作出反应--至少在没有数千轮强化学习
的情况下既是如此。但是现实世界已经内置了这样的应对系统。
https://tinyurl.com/yydt55tn
Deepmind老大说
即使是已经训练好的“打砖块”游戏AI
只要游戏设定做个微小的调整
AI就会失败
需要再更多的训练,才能因应新的状况
围棋“人类”棋手如果突然面对20x20的棋盘
可能对棋力没什么影响
那么如果突然让目前最强围棋AI“AlphaZero”和人类下20x20
AI可能会表现的如何?
thanks
作者: maplefoxs (狐狸怎么叫)   2019-06-15 15:08:00
前几盘可能可以赢吧我觉得这个议题蛮好的 值得一试
作者: HeterCompute (异质运算)   2019-06-15 16:28:00
如果什么都不动,alphago不能下20路围棋,因为连输入只能是19路棋盘,但是如果经过一些技巧训练个1天,赢过人类还是绰绰有余
作者: kria5304 (XenoMegaREENovaSaga)   2019-06-15 16:48:00
应该要重新train吧 但只要input维度改一下 其他架构大概可以沿用 感觉是这样
作者: q6261901 (皮笑了那肉呢)   2019-06-15 21:01:00
之前用leela跑19路之外,全部都当成19路在下
作者: forb9823018 (风过无痕)   2019-06-15 22:54:00
有影响 但不会到非常剧烈对人类而言
作者: AmibaGelos (Amiba Gelos)   2019-06-15 23:16:00
主要是cnn对边缘太敏感 提供座标给cnn能部分解决问题围棋的话多输入盘面大小应该任意盘面都能共用网络吧
作者: ddavid (谎言接线生)   2019-06-16 00:27:00
其实了解深度学习的话就知道这没什么好惊讶的啊XD@AmibaGelos 把棋盘大小也都当参数当然也不是不行,但这样实质上等价于每种大小的棋盘分别训练,甚至未必比较好你如果想要用这种方式把20x20也同时训练起来,造成的结果就是所花的时间(或训练到一定棋力所需局数)就是19x19所需 + 20x20所需,至少以现有架构而言它没有学习不同盘面大小共通知识的能力。未来技术再发展也许慢慢会往这边前进,人类举一反三的能力一直都是共通型AI的长远目标
作者: AmibaGelos (Amiba Gelos)   2019-06-16 17:35:00
不一定吧 如果有无关盘面大小的准则的话 大小就标定边缘而已 类似标定黑白 策略确实不同 但不是不会重叠
作者: enjoytbook (en)   2019-06-17 10:10:00
人家AI就跟人类不一样啊
作者: ddavid (谎言接线生)   2019-06-17 17:47:00
AI目前这种学习方式就是学不到那样的通则现在是贴目数不同都会无法完全通用的状态,AI学不到那种“我把现在当作落后所以攻凶一点就搞定了”的转换性概念。当然有一组AI的目标设定为就算领先也会尽可能继续取得目数而不要退守,那个设定就相对能应付贴目改变问题,但付出的代价就会是潜在的安定性。至于盘面大小,现况是不同盘面肯定要重新训练的情况,不然别说复杂细算了,征子算错的情况都有可能发生。在19路棋盘训练出来的模组采用一个征子有利的下法,到了20路变成征子不利,深度学习选取棋步时可能并不会发现这个问题这点反而是传统搜寻式AI有机会搜寻下去发现问题,搜寻层数足够的话。
作者: AmibaGelos (Amiba Gelos)   2019-06-18 00:41:00
也许吧 有空设计个网络混合训练6*6~9*9 应该很有趣xd
作者: staristic (ANSI lover)   2019-06-18 00:50:00
说到征子,以现在的架构,盘面越大征子好像要练训越久?理论上好像越大的棋盘人类越有机会用征子套爆AI
作者: ddavid (谎言接线生)   2019-06-18 17:59:00
应该说本来手数多的套路如大型定石、长时间劫争这些本来就是要训练更多局才会有机率覆蓋到完整最佳着手征子本来可以视为一个很长的套路,然而征子是一个人类能够用共通概念推理快速简化计算的特例,围棋AI没有这种简化概念,需要真的实际算过所以盘面越大当然就大幅增加训练时间。一方面要模拟完一局需要更久,而获取足够资讯所需的训练对局数也大幅增加@AmibaGelos 混合训练不同大小目前事实上就是无意义啦。对AI问题是全等于分开训练,而且反而有可能因为对于盘面大小这个参数的模糊化导致模型品质的下降
作者: jojoStar (白金之星)   2019-09-13 01:54:00
以人类观点来说 这不就叫做 不知变通吗XD

Links booklink

Contact Us: admin [ a t ] ucptt.com