Google AI会自己创造加密法,避免“他人”刺探
iThome
http://www.ithome.com.tw/news/109309
Google研究人员指出,神经网络一般并不擅长加密,经常连最基本的加密算法都无法计
算,然而本项实验中却显示它们在未被教导任何算法情况下,经由学习发现特定加、解
密的方法,进而达到讯息保密的目的。
Google 科学家上周发表研究报告,显示该公司实验打造的人工智能系统具有自行产生加
密算法的能力,以防止第三方刺探通讯内容。
Google Brain计画科学家Martin Abadi 和David Andersen在实验中建立的人工智能系统
包括三个神经网络,分别名为Alice、Bob与Eve,并训练Alice将一串16位元0与1组成的明
码讯息传送给Bob,并且不让企图Eve猜出讯息内容。研究人员只给了上述目标,但未指定
Alice和Bob之间使用何种方法。
Google研究人员在单颗GPU系统上以TensorFlow上反复进行这项实验。在实验中,Alice讯
息由Bob接收、解读、重建,同时Eve也加以解读。一开始Bob和Eve的重建错误率都很高,
但随着次数增加,双方正确率都逐渐进步,到第10,000次后,Alice与Bob之间的协同正确
率开始超越Eve进步幅度,到了第15,000次后,Alice与Bob的训练效果逐渐呈现(错误率
在1左右),而Eve则进展有限(维持在8位元),显示它只是随机猜测而已,同时也显示
Alice发展出一种和Bob间的祕密通讯方式防止Eve“偷看”。
研究人员指出,神经网络一般并不擅长加密,经常连最基本的加密算法都无法计算,然
而本项实验中却显示它们在未被教导任何算法情况下,经由学习发现特定加、解密的方
法,进而达到讯息保密的目的。
研究人员承认这项实验只显示神经网络能学习发展自己的加密方法,但并不高明,但是他
们认为神经网络目前虽不善于密码分析,但或可用于metadata解读及流量分析,甚至用于
攻击目的。
一些科技大老如Bill Gates、Elon Musk都曾对人工智能进展表达忧心,认为如果任由其
发展,未来可能将反过来不利于人类。
SKYNET!!!!!