※ 引述《tlchen (台湾加油)》之铭言:
: ※ 引述《qweewqq (风一样的男子)》之铭言:
: : DeepMind指出,他们不使用任何人类知识,AlphaGo Zero用上的是新的“强化学习”方法
: 对于 "不使用任何人类知识" 这句, 我心中始终有个大问号.
: 首先, 在一开始的 random play, AZ 根本不知何时要停.
: 必须人工设定去停它. 这用到了人类知道这样的游戏, 应该有限步要停.
: 虽然 AZ 的参数是经由自我对战学的, 但整个架构呢?
: 要有几层的的类神经网络? 每层有多少节点? 层跟层间的结构?
: covolution 要用 5x5 还是怎样的大小?
: 要怎样配合 VN, PN? 要用 MCTS 来寻找?
: 这些都没用到人类的围棋知识吗?
: 这整个大架构, 是在学人类棋谱时, 发现这样的架构, 可以训练出不错的 AI.
: 这架构不是随便设就行得通的吧?
: 经由人类棋谱训练, 找到一个好的大架构, 这样可以称作不使用人类知识?
: 如果今天一个完全不懂围棋的人, 只针对规则, 就去订了大模型架构,
: 然后经由自我对战去学参数. 这样的结果, 那叫做不使用任何人类围棋知识.
: 现在这样算吗? 我心中实在有很大的黑人问号.
Deepmind发言里所指涉的"知识",在AI的发展的脉络中有特殊意义
并非广义上我们理解的知识
===
https://technews.tw/2017/08/07/the-3rd-revolution-wave-of-ai-technology/
第一波人工智能大约是在 1990 年代前电脑的计算与储存能力还有限的时候,人工智能多
是以“专家系统”的方式实现。也就是人类将一些专家才懂的知识(如医学、法律)变成
一条条“规则”(如吃多喝多尿多可能是糖尿病)并输入电脑,电脑就可以借由这些规则
判断。
第二波人工智能主要是以机器学习运用在巨量资料探勘为本,以大量的资料配合统计及计
算科学的方法让电脑能从事决策。
===
所谓专家才懂的知识,在围棋中就是棋理,比如说气、手顺、遇劫先提、手割分析法..等
AlphaGO一开始输入的是人类棋谱选点Data,并没有根据棋理来写规则并输入进程式中
你若要找参考人类棋理的AI当然也有,根据我之前转录的加藤先生访谈,Zen这类老牌
围棋软件还保留了一些AlphaGO出现前专家系统的架构,但很显然与这一波电脑围棋进展
无关。