[新闻] 人工智能看脸辨别同志 准确率达9成恐侵

楼主: campdkny   2017-09-08 11:51:11
苹果日报
人工智能看脸辨别同志 准确率达9成恐侵隐私
美国史丹佛大学学者研发最新人工智能技术,分析照片即可辨别某人是否为同志,准确
率最高达9成。虽然这项技术目前只适用于白种人,但已引发争议,论者担忧可能遭滥用
于迫害同志。研究人员更警告,未来分析人脸还可能得知政治立场等更多资讯,人们的
隐私恐更加欠缺保障。
《经济学人》披露,史丹佛大学学者柯辛斯基(Michal Kosinski)及王以伦(音,
Yilun Wang)以撷取自美国约会网站的3.5万张男女会员照片作为样本,以精密的数学
系统进行分析,发现男女同志在容貌特征、表情及妆扮上都属“性别非典型”,亦即男
同志较女性化、女同志较男性化。
这份刊登在《性格与社会心理学期刊》(Journal of Personality and Social
Psychology)的研究也发现,男同志与异性恋男性相比,下巴较窄、鼻梁较长、额头较
宽;女同志和异性恋女性相比,则下巴较宽、额头较窄。
利用这套系统辨识一张人脸照片,正确辨别男同志的比率为81%、女同志则为74%。若辨
识同一人的5张照片,正确辨别男同志的比率更达91%、女同志83%。若是人眼目测,正确
辨别男同志的比率只有61%、女同志54%。
作者指出,相关研究结果“强烈支持”性取向是与生俱来、非后天形成的理论。至于辨
别女同志的准确率较低,也支持女性性取向比较流动的看法。不过这项研究未纳入有色
人种,也未涵盖变性人或跨性别族群。
《卫报》报导,这项研究经披露后引发争议。批评者认为根本不该研发这种软件还将之
公开,恐被用于迫害LGBT族群。多伦多大学心理学者卢尔(Nick Rule)就说,这项技术
令人不安,“作者已大胆展示这项技术多么具有威力……现在我们知道,需要采取保护
措施”。
但报告作者指出,这种技术早已存在,将它公诸于世很重要,政府与企业可积极考量其
隐私风险,进行规范。作者更表示,未来可能出现以人工智能判读人脸,即可知晓其政
治立场、心理状态等隐私问题的技术。有识之士担忧电影《关键报告》(Minority
Report)的情节可能成真,电脑预测某人会犯罪,他就会预先被捕。
脸部辨识技术公司Kairos执行长布拉金(Brian Brackeen)就说:“只要有足够资讯,
人工智能可以告诉你关于任何人的任何事情。问题是,这个社会想知道吗?”  
(李宁怡/综合外电报导)
https://goo.gl/NTNSg3
准确率9成 , 目前只适用白种人...但后面提到如果交由电脑预测某人会犯罪好像是不错
的发展 , 尤其是在台湾这么多监视器的地方 , 透过这技术就能预防犯罪 ~
作者: flavorBZ (爱BZ)   2016-09-08 11:51:00
鸡掰脸电脑都知道XD
作者: lovebxcx (魔法少女)   2016-09-08 11:51:00
真的假的?
作者: jim66356 (摇尾巴)   2016-09-08 11:51:00
五楼甲脸盖

Links booklink

Contact Us: admin [ a t ] ucptt.com