iThome
打开AI黑箱,NEC要发展白箱AI技术
AlphaGo的招数下得很妙,但人们又无法说明AlphaGo为何下此妙招,难道人类的未来要全
部交由AI来决定吗?
文/吴其勋 | 2017-11-10发表
随着AI人工智能的复兴,许多令人不可思议的应用开始浮出台面,然而,AI的决策过程宛
如黑箱作业,人们的未来是否要交由AI技术来决定,逐渐引起讨论。在今日(11/9)于日
本东京举办的NEC iExpo 2017大会,NEC社长新野隆就指出,未来要打开AI黑箱,发展白
箱AI(White-Box AI)技术。
AI人工智能技术正在快速改变世界,在AI人工智能为世界带来更多便利的同时,其智慧决
策也在决定这个世界未来的样貌。然而,以深度学习为首的AI技术,其运作过程犹如一个
黑箱,把讯息输入之后,AI技术就输出一个结果,而外人往往无法理解其算法的决策依
据,甚至就连算法开发者也难以具体说明AI技术的决策结果。
NEC社长新野隆表示,AI最大的意义是将真实世界的各种资讯数位化,转换为对人类有价
值的决策。首先,影像、视讯、声音、文件等资讯都数位化之后,就可以进行过去无法做
到的分析。虽然社会上已经充满各种资讯,但数据品质并不好,例如监视摄影机在晚间,
或遇到起雾就无法取得有用的资讯,而AI技术首先可用于提升数据的品质。
接着,真实世界的各种资讯都数位化之后,AI技术就能对数据予以分析,再透过各种技术
综合分析提出结果建议,但是,“对于AI最后得出的结果,我们却无法说明。”新野隆说
:“AI技术就像是黑盒子,以围棋程式AlphaGo为例,为何AlphaGo会出这招,没人知道,
但我们又不得不承认AlphaGo很精明,招数下得妙。”
然而,AI技术分析得出的决策,最终是要对真实世界的决策有所助益,新野隆表示,很多
AI技术提出的决策建议,都需要再由人来判断,然而把关的人若无法理解AI决策的依据,
又该如何判断?最终岂不是全数交由AI来决定。
新野隆表示,NEC未来的AI开发趋势之一,就是研发白箱AI技术,在以AI技术提供决策建
议的同时,也提有效的证据为基础,让人们有办法据以判断AI的决策建议。
https://www.ithome.com.tw/news/118187
叭叭~我们要求阿法狗公开透明,不能密室协商,所有决策都要摊在阳光下!