[新闻] 亚马逊废除招聘分析系统 因为AI会歧视女

楼主: Reewalker (报告馒头班长不够)   2018-10-10 20:30:13
※ [本文转录自 Reewalker 信箱]
作者: paericsson (pa) 看板: Gossiping
标题: [新闻] 亚马逊废除招聘分析系统 因为AI会歧视女
时间: Wed Oct 10 13:12:50 2018
1.媒体来源:
※ 例如苹果日报、奇摩新闻
自由
2.完整新闻标题:
※ 标题没有写出来
作者: getbacker (工作十年了啊.......)   2018-10-10 20:48:00
男性没有生理假产假,比较能接受加班到半夜或独自出差到开发中国家,硬要男女录取一样多只是齐头式平等
作者: Luos (Soul)   2018-10-10 20:48:00
正确的AI
作者: aminoyoyo (YOYOYO)   2018-10-10 20:52:00
真AI
作者: Murasaki0110 (麦当劳欢乐送)   2018-10-10 20:54:00
过去收集的都是带有偏见的data 当然会学歪阿
作者: f496328mm (为什么会流泪)   2018-10-10 20:58:00
好奇AI团队为什么无法解决这问题,就算是imbalance data,也可以做调整,不然就是修改loss function,再不然,最后predict结果,再去筛一半男一半女,或是分两个model,男女用不同model
作者: MrZiXu (子虚先生)   2018-10-10 21:07:00
亚马逊傻了吗?公司就是需要男性啊
作者: wake7078 (KK)   2018-10-10 21:29:00
AI:干 我做数据分析 几十年的数据结果就是这样
作者: a9564208 (YOU OUT!!)   2018-10-10 21:29:00
男女用不同model不怕女权团体抗议?
作者: wake7078 (KK)   2018-10-10 21:30:00
AI:结果现在说我仇女 那过去的数据是什么
作者: kmaster (救球是一门艺术)   2018-10-10 21:35:00
这也可以说整个体制对女性仍是不友善,存在偏见
作者: willism (hpc5)   2018-10-10 21:53:00
看国内新闻智商会下降,更何况一堆人连国内新闻都看不懂...隐含意思就是以“近10年录取人数”来看,亚马逊录取的女性员工少的可怜,所以资料喂给AI,AI自然把性别=女性的权重调低。而去看reuter的新闻,里面还写到只要履历内提到“women' s”,AI就扣你权重...
作者: monocero (食人兽)   2018-10-10 21:58:00
依照亚马逊那可能的生产线情形,喂出来的结果不意外
作者: willism (hpc5)   2018-10-10 21:58:00
AI偏见(重现人类偏见)的新闻不曾少过,什么黑人多罪犯,或护士就女性之类的,这新闻不过沧海一粟
作者: furio (void)   2018-10-10 22:08:00
搞不好统计结果就是这所谓"偏见",不看数据就说人偏见这....不知道这算不算偏见
作者: n791116 (天母金城武)   2018-10-10 22:10:00
在说废话 理工科系男多于女 工程师自然女少不过台湾中文系也可以当工程师应该是例外
作者: longlongint (华哥尔)   2018-10-10 22:13:00
不合理 feature 不填性别就能解决的事情新闻应该写错了
作者: TWLAB (AlphaGO)   2018-10-10 22:14:00
AI认证
作者: donkilu (donkilu)   2018-10-10 22:20:00
Machine learning的无解课题啊lol
作者: lovebridget (= =")   2018-10-10 22:26:00
当兵 当兵不能说实话的
作者: ciplu   2018-10-10 22:39:00
输入怎样的资料 就会输出怎样的结果
作者: labiron (labiron)   2018-10-10 22:49:00
就统计数据自然产生的结果 以后AI也要学会政治正确不然会变成AI骑士
作者: o760823 (锋)   2018-10-10 22:56:00
仇女
作者: raku (raku)   2018-10-10 23:30:00
AI认证的
作者: poeoe   2018-10-10 23:35:00
专业AI
作者: OxFFFF (65535)   2018-10-10 23:55:00
扯资料男>>女train起来会有偏差的显然才是不会train。如果这堆女性都是表现前20%即使资料少,AI分析结果也会是女性优于男性资料不对称的解决方法很多好吗,只要分布合理就没问题
作者: aaa40303 (管管)   2018-10-11 00:50:00
问题在取样数据库的偏异数据
作者: alen82515 (猛哥神信)   2018-10-11 01:19:00
就一间公司发现他们的AI可能会给女性较低的分数,然后有人自己去推测那个AI是怎么写的,还骂其他人白痴,到底是...?
作者: blue237 (换了位置就换了脑袋)   2018-10-11 01:22:00
写AI的忘记加入现实模组[(长相+胸部)>(经历+实力)]
作者: willism (hpc5)   2018-10-11 03:07:00
网友说资讯不对称的解决方法很多,说啥女性如果表现前20%,就算人少,被AI投票也会拿高分!这种人是不知道个人能力(表现)是常态分布的吗,在这种状况下,人少就是劣势...就算拿掉性别,男女还是有很多不一样,ex.社团活动、科系、兴趣等
作者: OxFFFF (65535)   2018-10-11 06:55:00
还以为想说什么,结果扯一堆跟target无关的... xD
作者: Sadan (Danny)   2018-10-11 07:09:00
女性本身表现普通就差男性一截啊
作者: willism (hpc5)   2018-10-11 07:30:00
那是features好吗,最好和target无关啦
作者: OxFFFF (65535)   2018-10-11 07:39:00
是feature就会拿去当input做normalize啊,那不就是说这分析资料已经考虑你原本说不考虑的东西了吗?资料数量不对称跟model input根本两件事 = =,还是你觉得Amazon资料“分布”会不够丰富? 数量问题能解决,资料的分布问题才会影响结果
作者: questionboy (问题男孩)   2018-10-11 12:33:00
我是觉得input的资料没有性别 而ai跟据data train出来选有该技能的人多是男性 新闻导因为果 deer被新闻误导了吧
作者: a0916665106 (班班)   2018-10-11 15:19:00
机器学习 乃资料之统计 归纳之结果 由此可知推文很好笑欸 亚马逊工程不会解data 偏误还3小的问题吗 你们想的到的他们会想不到吗
作者: ljmk1246 (ljmk1246)   2018-10-12 00:19:00
啪啪啪啪 打脸女权废物
作者: doranako (真爱无限)   2018-10-12 00:27:00
不愧是AI,像人类
作者: mangoldfish (大眼笨金鱼)   2018-10-12 10:57:00
光是能不能出差,就卡死多数女性,就算是国外多数还是女性在照顾孩子
作者: kaworutb (QQa)   2018-10-13 18:17:00
这系统正确分析啊

Links booklink

Contact Us: admin [ a t ] ucptt.com