※ [本文转录自 Reewalker 信箱]
作者: paericsson (pa) 看板: Gossiping
标题: [新闻] 亚马逊废除招聘分析系统 因为AI会歧视女
时间: Wed Oct 10 13:12:50 2018
1.媒体来源:
※ 例如苹果日报、奇摩新闻
自由
2.完整新闻标题:
※ 标题没有写出来
作者:
getbacker (工作十年了啊.......)
2018-10-10 20:48:00男性没有生理假产假,比较能接受加班到半夜或独自出差到开发中国家,硬要男女录取一样多只是齐头式平等
作者:
Luos (Soul)
2018-10-10 20:48:00正确的AI
作者: aminoyoyo (YOYOYO) 2018-10-10 20:52:00
真AI
好奇AI团队为什么无法解决这问题,就算是imbalance data,也可以做调整,不然就是修改loss function,再不然,最后predict结果,再去筛一半男一半女,或是分两个model,男女用不同model
作者:
MrZiXu (子虚先生)
2018-10-10 21:07:00亚马逊傻了吗?公司就是需要男性啊
作者:
a9564208 (YOU OUT!!)
2018-10-10 21:29:00男女用不同model不怕女权团体抗议?
作者:
kmaster (救球是一门艺术)
2018-10-10 21:35:00这也可以说整个体制对女性仍是不友善,存在偏见
作者:
willism (hpc5)
2018-10-10 21:53:00看国内新闻智商会下降,更何况一堆人连国内新闻都看不懂...隐含意思就是以“近10年录取人数”来看,亚马逊录取的女性员工少的可怜,所以资料喂给AI,AI自然把性别=女性的权重调低。而去看reuter的新闻,里面还写到只要履历内提到“women' s”,AI就扣你权重...
作者:
willism (hpc5)
2018-10-10 21:58:00AI偏见(重现人类偏见)的新闻不曾少过,什么黑人多罪犯,或护士就女性之类的,这新闻不过沧海一粟
作者: furio (void) 2018-10-10 22:08:00
搞不好统计结果就是这所谓"偏见",不看数据就说人偏见这....不知道这算不算偏见
作者:
n791116 (天母金城武)
2018-10-10 22:10:00在说废话 理工科系男多于女 工程师自然女少不过台湾中文系也可以当工程师应该是例外
作者: longlongint (华哥尔) 2018-10-10 22:13:00
不合理 feature 不填性别就能解决的事情新闻应该写错了
作者: TWLAB (AlphaGO) 2018-10-10 22:14:00
AI认证
作者:
donkilu (donkilu)
2018-10-10 22:20:00Machine learning的无解课题啊lol
作者:
ciplu 2018-10-10 22:39:00输入怎样的资料 就会输出怎样的结果
作者:
labiron (labiron)
2018-10-10 22:49:00就统计数据自然产生的结果 以后AI也要学会政治正确不然会变成AI骑士
作者: o760823 (锋) 2018-10-10 22:56:00
仇女
作者: raku (raku) 2018-10-10 23:30:00
AI认证的
作者: poeoe 2018-10-10 23:35:00
专业AI
作者: OxFFFF (65535) 2018-10-10 23:55:00
扯资料男>>女train起来会有偏差的显然才是不会train。如果这堆女性都是表现前20%即使资料少,AI分析结果也会是女性优于男性资料不对称的解决方法很多好吗,只要分布合理就没问题
就一间公司发现他们的AI可能会给女性较低的分数,然后有人自己去推测那个AI是怎么写的,还骂其他人白痴,到底是...?
作者: blue237 (换了位置就换了脑袋) 2018-10-11 01:22:00
写AI的忘记加入现实模组[(长相+胸部)>(经历+实力)]
作者:
willism (hpc5)
2018-10-11 03:07:00网友说资讯不对称的解决方法很多,说啥女性如果表现前20%,就算人少,被AI投票也会拿高分!这种人是不知道个人能力(表现)是常态分布的吗,在这种状况下,人少就是劣势...就算拿掉性别,男女还是有很多不一样,ex.社团活动、科系、兴趣等
作者: OxFFFF (65535) 2018-10-11 06:55:00
还以为想说什么,结果扯一堆跟target无关的... xD
作者:
Sadan (Danny)
2018-10-11 07:09:00女性本身表现普通就差男性一截啊
作者:
willism (hpc5)
2018-10-11 07:30:00那是features好吗,最好和target无关啦
作者: OxFFFF (65535) 2018-10-11 07:39:00
是feature就会拿去当input做normalize啊,那不就是说这分析资料已经考虑你原本说不考虑的东西了吗?资料数量不对称跟model input根本两件事 = =,还是你觉得Amazon资料“分布”会不够丰富? 数量问题能解决,资料的分布问题才会影响结果
我是觉得input的资料没有性别 而ai跟据data train出来选有该技能的人多是男性 新闻导因为果 deer被新闻误导了吧
机器学习 乃资料之统计 归纳之结果 由此可知推文很好笑欸 亚马逊工程不会解data 偏误还3小的问题吗 你们想的到的他们会想不到吗
作者:
ljmk1246 (ljmk1246)
2018-10-12 00:19:00啪啪啪啪 打脸女权废物
光是能不能出差,就卡死多数女性,就算是国外多数还是女性在照顾孩子