Fw: [新闻]AlphaGo战胜棋王的秘密?DeepMind成员来台

楼主: buke (一坪的海岸线)   2016-03-18 14:05:25
※ [本文转录自 Gossiping 看板 #1MwvWCd5 ]
作者: buke (一坪的海岸线) 看板: Gossiping
标题: [新闻]AlphaGo战胜棋王的秘密?DeepMind成员来台
时间: Fri Mar 18 13:54:02 2016
1.媒体来源:
自由
2.完整新闻标题:
AlphaGo 战胜棋王的秘密?DeepMind 成员来台现身说法!
3.完整新闻内文:
作为人工智能开发的新里程碑,Google 旗下 DeepMind 团队所开发的 AlphaGo 系统,在
最近一场与世界棋王顶尖对决中,最终以 4 比 1 拿下胜利,并且荣登世界棋士排行榜第
二名的位置。这场让世人见证到人工智能的高速发展的赛事,也让幕后开发 AlphaGo 的
DeepMind 团队立时成为受瞩目对象。其中来自台湾的 DeepMind 成员、同时也是代 Alph
aGo 在棋盘上落子的黄士杰,今天亲临 Google 台湾,要来分享 AlphaGo 的致胜关键!
来自台湾的黄士杰,目前是 Google 旗下 DeepMind 团队的资深研究员,也是 AlphaGo 人
工智慧系统的重要开发者。而能够成为 AlphaGo 的关键人物。曾经开发过围棋人工智能、
做过围棋老师的他,认为围棋是相当适合 AI 人工智能的挑战,特别是在深蓝在 1997 年
击败人类后,围棋成为 AI 人工智能仍未取胜的领域。
其中 AlphaGo 之所以能获胜,最主要的原因在于可以“判断优势”、“以及取得最佳的棋
路”两大要素,透过学习人类千年来智慧的结晶,学习大量的棋谱与棋路,因此可以拥有
类似人类的“直觉”下法,无须穷举运算所有的棋路,就可以决定哪一个落子处,最有机
会获的胜利。
其中黄士杰表示,“直觉”是围棋比赛中最重要的关键,职业棋士总会有神来一著,但他
们也无从说起判断为何。黄士杰指出,这就是“直觉”的重要性,透过优先找出更有优势
、胜率更高的棋路,让电脑不必穷尽所有棋路可能,而可以选择最有胜率的 20 步,以采
取胜率最高的策略。
黄士杰提到,由于围棋的变化有 10 的 170 次方,若是想要把所有的棋路穷尽思量,那么
几亿年也无法运算完。因此 AlphaGo 采取可以判断优势的“策略网络”,辅以可以推断棋
路的“价值网络”,让 AlphaGo 能拥有类似人类的直觉,以便在围棋这类复杂的棋类运动
中,与人类对弈、进一步取得胜利!
黄士杰表示,在 1990 年时,人工智能还无法做到与人类较量围棋的能力,当时尽管让 AI
先下 25 个旗子,但仍会在最后全部被吃光落败。时至今日透过 Google 机器学习技术的
帮助,AI 的发展已经突飞猛进,在这次与李世石的对弈中,甚至获得 5 战 4 胜的成绩。
不过回顾比赛当时、坐在李世石对面的黄士杰,其实是抱着相当尊敬的心情与李世石对弈
。包含避免喝水、离席、以及过多的脸部表情,都是基于尊敬李世石、不想要干扰他的比
赛而产生的行为,这更让赛后李世石提到,与他对弈的黄士杰有着职业棋手的气势。黄士
杰表示,在赛中他可能只有意外地笑了一次,而那次是因为李世石击败了 AlphaGo,他由
衷为李世石感到开心的笑容。
然而面对李世石在第四局的 79 手落子,为何最终会导致 AlphaGo 的误判、导致这个人工
智慧最后选择投降,黄士杰表示这确实可能是 AlphaGo 的 BUG,但目前还不清楚是策略网
路的误判、还是价值网络提供了错误的讯息,DeepMind 团队还在研究导致战败的原因。
说到战败,黄士杰提到其实 AlphaGo 只要觉得“没希望了”,就会主动投降,也就是在胜
率低于 20% 的情况下,系统会弹出投降视窗,也就是在第四战大家看到的画面。但这并非
意味着 AlphaGo 有办法事前预测和李世石对弈时,可能获胜的机率有多少。黄士杰强调,
AlphaGo 的胜率判断,必须基于和对方正式交手后才能判断,因此在还没比赛前,AlphaGo
自己也不知道获胜的机会有多大。
而这种判断机制,也让 AlphaGo 在第五战成功逆转胜。除了因为学习了李世石在前四战的
棋路外,先前透过两个 AlphaGo 系统的自主对弈训练,也是让这个人工智能系统有着超越
人类围棋能力的关键。
未来 AlphaGo 有机会应用在其他领域上,特别是医疗领域,DeepMind 已经有团队特别在
进行这方面的项目。但对于人工智能不断发展,是否会出现类似“天网”的人工智能威胁
?黄士杰强调,人工智能的使用依旧取决于人类如何使用,而 DeepMind 团队也相当重视
这个问题,Google 内部甚至有伦理委员会,来决定科技的使用方式是否正确。
至于 AlphaGo 未来会不会挑战其他项目,像是《星海争霸》这类的即时战略游戏?黄士杰
认为短时间内不可能,主要原因是即时战略游戏不同围棋,他有太多不确定的因素,对于
人工智能而言还太过困难。他特别指出,人工智能目前人仍是早期阶段,还没有办法创造
出主动式的意识,因此未来还有很长的路要走。
4.完整新闻连结 (或短网址):
http://3c.ltn.com.tw/news/23480?page=1
5.备注:
连结内有完整影片
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 36.230.153.2
※ 文章网址: https://www.ptt.cc/bbs/Gossiping/M.1458280460.A.9C5.html
※ 编辑: buke (36.230.153.2), 03/18/2016 14:07:16
作者: CGary (下雨天也挺浪漫的)   2016-03-18 14:13:00
一直拍人不拍投影片...- - 虽然人很重要 但也不用拍整场吧?
作者: aaaba (小强)   2016-03-18 15:32:00
投影片没新内容吧,跟水管deepmind频道的第一则影片一样
作者: wadashi1 (阿拉丁)   2016-03-18 17:10:00
所以每次跟李对奕都会再自我学习。
作者: tbrLeBlanc (黑玫瑰勒布朗)   2016-03-18 17:23:00
很怀疑新闻里三楼那段是不是新闻自己加的 影片没听到这次对弈应该会避免深蓝时的争议 对战期间不调整参数
作者: CGary (下雨天也挺浪漫的)   2016-03-18 20:21:00
参数在比赛期间不会调整 这点 aja 有说过...
作者: jpg31415926 (圆周率π)   2016-03-18 20:35:00
你的调整看是什么角度 对工程师而言 调整是修改code不然就是调参数 不过AlphaGo会自己优化参数
作者: sunev (Veritas)   2016-03-18 21:38:00
楼上没听懂? 参数在比赛期间就是定死的
作者: walkwall (会走路的墙)   2016-03-18 21:46:00
这里的调整参数 应该指的是类神经网络的学习 不是工程师调参数 而是暂时停止学习 固定住NN现况来下不过赛后 照理说会对失败的那盘做点学习就是了
作者: roujuu (老中)   2016-03-18 21:51:00
如果挑战 mud,例如像“重生的世界” Revival World 呢?
作者: jpg31415926 (圆周率π)   2016-03-18 22:39:00
他们就只有说版本是定死的 有说比赛期间不会自己下吗我是没注意到他有没有说有继续对练 但跟听不听懂无关当然也可能只是记者改写时误传
作者: chris90174 (独孤彧)   2016-03-18 23:40:00
第四局李世石持白,怎么可能下到“78”手......|||说错 是他怎么可能下到“79”手
作者: sapc87952 (阿家)   2016-03-19 00:07:00
Machine learning就是每跑一次棋谱(下棋)会比前一次强版本定死意思就是在这午盘其中间AlphaGo不会再自我学习*五盘棋
作者: SapphireNoah (DougWhite)   2016-03-19 00:26:00
倒数第三段有提到学习了李世石在前四战的棋路,所以期间还是有放给它自己成长。
作者: aegis43210 (宇宙)   2016-03-19 01:08:00
所以意思是alphaGO比赛期间只用和李世石对弈来学习?
作者: zelkova (*〞︶〝*)   2016-03-19 01:38:00
你怎么知道那段不是记者自己脑补的...
作者: ddavid (谎言接线生)   2016-03-19 04:55:00
记得之前都说比赛中不会重学,那句我觉得是记者脑补
作者: s9209122222 (海海海)   2016-03-19 10:44:00
和李世石下的那几盘对AlphaGo 没影响,他要几百万盘才会有影响

Links booklink

Contact Us: admin [ a t ] ucptt.com