来源:http://bit.ly/2dIcUDi
Alpha Go大胜韩国棋王,让人类意识到人工智能的能力以及重要性。然而研究发现,逻辑
运算、推断决策能力胜过人类的人工智能,却出乎意料地容易受骗。
美国宾夕法尼亚州大学的研究团队与Google、美国军方共同针对人工智能可能会面临何种
恶意攻击?例如:沙沙声的噪音有可能频率内含有命令Siri、Google Now等智慧手机的虚
拟助理进行某项功能的指令。在使用者毫不知情的情况下浏览含有病毒或木马程式的网站
、email,导致使用者的智慧手机中毒、个资外泄,甚至引发各种争端。
不仅如此,任何图片被稍作修改后,人类肉眼看来两张一模一样的图片,但在人工智能
算法看来却是截然不同的图片(如图一)。换言之,在人类眼中没有异常的路面标志或
招牌,对于由人工智能操控的无人驾驶车看来极有可能代表着不同意义,让人工智能错误
判读路面上的标志而造成车祸。这类有别于传统骇客入侵的“人工智能诈骗术”,在人工
智慧时代将成为人类社会极大的威胁。
追根究底,人工智能之所以如此容易受骗,是因为在机器学习过程中只让人工智能学习单
方面的知识,使其可以回答或做出正确抉择,但却没有教导人工智能理解知识。因此,应
该如同人类幼儿学习一样,人工智能在学习何谓正确知识时也要同时学习何谓错误,借由
同时正、反两面的教导,让人工智能建立更难被黑箱攻击的算法,才能大幅降低人工智
慧被骗的机率。
身为前Google深度学习的主要研究人员之一,目前加入非营利人工智能研究团队的Open AI
的Good Fellow博士表示,从实验结果可以发现,如果只告诉人工智能如何辨识什么是正确
的话,相对很容易被恶意重建另一套伪正确的算法。然而,若将原始是的正确以及修改
后的图片同时给予人工智能,训练其辨识图片的演算网络时,则人工智能错认图片的比率
就会大幅减少,甚至人工智能还能做得比原先的更好。
除了Good Fellow博士外,近年来致力于发展爆裂物机器人、无人机、外骨骼机器人的美国
军方也针对人工智能诈骗技术进行研究。毕竟美国军方砸重金推动军队智慧化,如果轻易
就被击溃,反而导致国防门户大开。除了美国军方之外,将人工智能技术视为企业次世代
成长动力的IT企业也开始投入相关研究,希望能尽快弥补漏洞,好让人工智能技术发展不
会因此受挫。