※ 引述《campdkny ()》之铭言:
: 苹果日报
: 人工智能看脸辨别同志 准确率达9成恐侵隐私
: 美国史丹佛大学学者研发最新人工智能技术,分析照片即可辨别某人是否为同志,准确
: 率最高达9成。虽然这项技术目前只适用于白种人,但已引发争议,论者担忧可能遭滥用
: 于迫害同志。研究人员更警告,未来分析人脸还可能得知政治立场等更多资讯,人们的
: 隐私恐更加欠缺保障。
: 《经济学人》披露,史丹佛大学学者柯辛斯基(Michal Kosinski)及王以伦(音,
: Yilun Wang)以撷取自美国约会网站的3.5万张男女会员照片作为样本,以精密的数学
: 系统进行分析,发现男女同志在容貌特征、表情及妆扮上都属“性别非典型”,亦即男
: 同志较女性化、女同志较男性化。
: 这份刊登在《性格与社会心理学期刊》(Journal of Personality and Social
: Psychology)的研究也发现,男同志与异性恋男性相比,下巴较窄、鼻梁较长、额头较
: 宽;女同志和异性恋女性相比,则下巴较宽、额头较窄。
: 利用这套系统辨识一张人脸照片,正确辨别男同志的比率为81%、女同志则为74%。若辨
: 识同一人的5张照片,正确辨别男同志的比率更达91%、女同志83%。若是人眼目测,正确
: 辨别男同志的比率只有61%、女同志54%。
: 作者指出,相关研究结果“强烈支持”性取向是与生俱来、非后天形成的理论。至于辨
: 别女同志的准确率较低,也支持女性性取向比较流动的看法。不过这项研究未纳入有色
: 人种,也未涵盖变性人或跨性别族群。
: 《卫报》报导,这项研究经披露后引发争议。批评者认为根本不该研发这种软件还将之
: 公开,恐被用于迫害LGBT族群。多伦多大学心理学者卢尔(Nick Rule)就说,这项技术
: 令人不安,“作者已大胆展示这项技术多么具有威力……现在我们知道,需要采取保护
: 措施”。
: 但报告作者指出,这种技术早已存在,将它公诸于世很重要,政府与企业可积极考量其
: 隐私风险,进行规范。作者更表示,未来可能出现以人工智能判读人脸,即可知晓其政
: 治立场、心理状态等隐私问题的技术。有识之士担忧电影《关键报告》(Minority
: Report)的情节可能成真,电脑预测某人会犯罪,他就会预先被捕。
: 脸部辨识技术公司Kairos执行长布拉金(Brian Brackeen)就说:“只要有足够资讯,
: 人工智能可以告诉你关于任何人的任何事情。问题是,这个社会想知道吗?”
: (李宁怡/综合外电报导)
: https://goo.gl/NTNSg3
: 准确率9成 , 目前只适用白种人...但后面提到如果交由电脑预测某人会犯罪好像是不错
: 的发展 , 尤其是在台湾这么多监视器的地方 , 透过这技术就能预防犯罪 ~
还有一个研究也是蛮准的
就是有个男的是甲
你如果问他是不是甲
有99%他不会承认自己是
蛮准的
不信的话赶快测试你身边的男性