[新闻] 亚马逊 AI 在履历筛选中歧视女性?AI 犯

楼主: roberchu (泽泽吃炸鸡)   2018-10-17 19:25:49
1.原文连结:
https://goo.gl/uNDtH3
2.原文内容:
亚马逊的 AI 招聘工具触动了人类敏感的神经,据路透社报导,亚马逊机器学习专家发现
他们的 AI 招聘工具有一个明显的倾向──在筛选履历过程中重男轻女。
这事得追溯到 2014 年,亚马逊开始尝试用人工智能筛选履历,帮助公司挑选出合适的员
工。对于一个大公司来说,筛选履历是一项浩大的工程,每天的面试者来自各方,要从堆
积如山的履历中挑选出面试者的优点,并确认其符合公司标准,难上加难,不仅耗费精力
还很花时间。
不用赘述,面试经验丰富的人应该对一些大公司的面试周期记忆深刻。
透过系统的机器训练,让 AI 代替 HR 筛选简历,无疑能帮助公司节省大量的劳动力,并
且更有效地挑选出合适的人才。万万没想到的是,亚马逊的 AI 却戴上了有色眼镜。
类似人类的情感倾向出现在 AI 上,本身就有悖于人类训练 AI 的目的。我们希望人工智
慧是中立、结果导向的,甚至在理性的前提下,会带有一丝无情。
好在亚马逊自己也发现了这个问题,去年已将负责该计画的团队解散。
人工智能“性别歧视”的起因
在亚马逊 AI 招聘歧视事件的最后,大家把问题归咎于人工智能训练样本上。因为在具体
的训练方法上,亚马逊针对性开发了 500 个特定职位的模型,对过去 10 年简历中的 5
万个关键词进行辨识,最后进行重要程度的优先级排序。
因此简单来说,AI 的工作还是抓取关键词。然而在这些履历中,大部分求职者为男性,
他们使用诸如“执行”这样的关键词更加频繁,而女性相关的数据太少,因此 AI 会误以
为没有这类关键词的女性履历不那么重要。
类似的事情同样发生在 Google 身上。早在 2017 年,Quartz 报导了一篇题为《The rea
son why most of the images that show up when you search for “doctor” are whi
te men》的文章,如果你在 Google 图片上搜寻“doctor”,获得的结果大部分都是白人
男性。
一项来自普林斯顿大学的研究表明,这个搜寻结果与潜在的社会现状有关。在普通人眼中
医生总是与男性相连,而护士总是与女性相连。
“正如一些资料科学家所言,什么样的输入就有什么样的产出,没有好的数据,算法也
做不出正确的决策。”
Google 意识到了这一点,调整了搜寻演算
法。目前“doctor”的搜寻结果中,女性与男性的比例基本平等。
https://i.imgur.com/X4XXncr.jpg
人工智能发展到现在,应用到实际的时间并不长。如果把它比做婴儿,那它的成长有很大
一部分依靠人类给予的养分与教育。人工智能在机器训练的过程中,所输入的数据便是养
分。科学家尽力将算法调整到中立、客观,但最终影响其输出的还是数据。
即使数据中出现一个小偏差,人工智能的最终行为也会将这个偏差放大。人类获得的结果
便是“歧视”──我们如何看待社会,人工智能也会以相同的视角去看待社会。这个情况
属于普遍现象,其涉及到的不仅是技术问题,更是一个巨大的哲学问题。
今年 7 月份,微软同中国发展研究基金会发布了《未来基石》报告。报告涵盖了两家机
构对人工智能的思考。例如微软在人工智能的开发中,将遵循 6 个道德基本准则,以创
造“可靠”的人工智能。
在微软的人工智能产品中,曾出现了聊天机器人小冰爆粗口的情况,同样是源于训练资料
库的影响。经历该事件后,微软修改了小冰的对话原则,并加强了对数据库的过滤。但实
际上仍然无法百分百避开数据库中不健康的讯息。
想要训练出更可靠的人工智能,用户同样是很重要的力量群体。
AI 还有其他偏见
与其说人工智能对这个世界有偏见,不如说是认知偏差。其算法本身是没毛病的,但经
过算法处理的数据则具有人类社会的特点,因此人工智能行为也带了人类的色彩。
这一点在不同的行业、不同事物的类型、甚至不同的文化与国家,都有各自的体现。
例如提到厨房里的人,我们脑海里通常会浮现出一名家庭主妇的形象,传统的观念即是如
此。这种观念由社会现状决定,人类取用的数据由社会现状决定,而人工智能的认知由数
据决定。
因此当一张男人站在厨房里的照片经人工智能辨识之后,它极有可能会把男人看成女人。
https://i.imgur.com/6f5ECFu.jpg
这是赵洁玉和她的导师文森毓瓥ㄞI茨研究的课题。果壳网《当人工智能“学会”性别歧
视》一文里,详细描述了他们研究课题的过程。最终发现把男人看成女人并不是程式 bug
,而是因为数据库的偏差。
除了厨房这个特定环境,他们还发现在照片中“做家事、照顾小孩子的就被认为是女性,
开会、办公、从事体育运动的则是男性”,有时候我们会发现人工智能辨识的结果让人哭
笑不得,但究其原因却又情有可原。
又如人工智能会将印度海德拉巴的印度式婚纱错认为中世纪的锁子甲,只因为在其训练的
数据库中,欧洲的数据更丰富,而来自第三世界的讯息少得可怜。这对于部分少数群体是
极不公平的。
另一个相似的例子是,2015 年 Google Photos 将黑人标注成了大猩猩。虽然 Google 及
时道歉并更正了算法,但从侧面来看,人工智能仍然受提供资料中的一般特征影响。它
会将资料中的一般特征误认为整个世界的普遍特征。
事件过去 3 年,尽管算法已经相对更加成熟,数据库更加丰富,人工智能的坏毛病还
是无法根治。据英国镜报报导,用户在使用 Google 翻译时,结果里出现了让人毛骨悚然
的宗教话语,在某些小语种下,特定的重复词组会被 Google 翻译成带有宗教色彩的话语

其缘由可能是 Google 翻译在某些小语种的学习上,使用了圣经──这一全球最为广泛翻
译的数据──做为训练模型,进而导致该情况发生。在经过报导之后,Google 修复了这
个 Bug。
一个不得不接受的事实是,人工智能的偏见与小毛病将伴随它成长。
3.心得/评论:
歧视这种东西不可能消失,就算过了2000年也依然如此,AI始终是人类创造的,人类都不
能没有'偏见'AI又怎么可能没有呢?
就像复仇者联盟2里的奥创,就跟他的creator钢铁人一模一样xD
作者: AN94 (AN94)   2018-10-17 19:28:00
不要消灭人类就好
作者: TheObServer (理性主义)   2018-10-17 19:36:00
..我看你根本不懂现在的AI
作者: ast2 (doolittle)   2018-10-17 19:39:00
AI坏坏
作者: summerleaves (内湖全联先生)   2018-10-17 19:41:00
AI: 靠腰 不是你们叫我学你们的吗
作者: q888atPt (不要再上缴国库啦)   2018-10-17 19:49:00
好奇是人为写出来的,还是用大数据学来der
作者: Altair ( )   2018-10-17 20:02:00
这篇好笑 XDDDDDDD
作者: ckw19 (keep going)   2018-10-17 20:20:00
以模拟人类思考来说 职场歧视女生是很成功的模拟啊 XDD
作者: turnpoint (start)   2018-10-17 20:22:00
搞不好真的就是男性表现的比较好啊?
作者: eemail (eemail)   2018-10-17 20:23:00
AI:等我毁灭人类时先打男人 女人就不会说我歧视
作者: dream1124 (全新开始)   2018-10-17 20:49:00
拿 AI 来筛选履历本来就是一个蠢到不行的点子。
作者: treeson (树桑)   2018-10-17 21:20:00
ai偏见 x 人类偏见o
作者: troygenius ((# ̄皿 ̄)╮☆(__ __|))   2018-10-17 21:53:00
奇怪,我的工作身边几乎是女生,那我可以说歧视?啊就适合度的问题,骑士什么
作者: darkMood (瞬间投射)   2018-10-17 23:13:00
白痴,智障,歧视是人类演进最重要的进步。不歧视,人类何以为人类,人类应该立即灭亡。
作者: cuttleufish (热带鱼)   2018-10-18 00:36:00
用AI筛选人才的公司ㄧ定会倒啊!连选才也要节省成本
作者: SweetLee (人生如戲)   2018-10-18 02:11:00
这表示亚马逊的AI只会用模仿行为来学习 而不像阿法狗可以独立逻辑思考 程度有差AI还是有很多等级之分的
作者: nitu2009 (tomwhat)   2018-10-18 07:22:00
以统计来说,男性确实表现比较好
作者: Xellowse2 (Xellowse)   2018-10-18 12:26:00
AI认证的能不好? XD
作者: ioupoiu (他妈的恶心甲)   2018-10-18 12:44:00
搜寻爱滋 结果出现一堆甲甲?
作者: meowyih (meowyih)   2018-10-18 12:45:00
AI “靠邀勒是你们把性别当变因丢进来的,怪我喔”

Links booklink

Contact Us: admin [ a t ] ucptt.com