Re: [新闻] 司改要陪审制还参审制? 民调结果一

楼主: wizardfizban (疯法师)   2020-07-19 06:01:18
※ 引述《gogen (gogen)》之铭言:
: 只要是人,就会有偏差,就会有看法见解,认知差异,与失误
: 还有就是会因跟一般民众的认知差异,形成代罪羔羊
: 我是认为可以导入AI辅助判决,法官只需根据事实认定有无,客观的背景资料与适用法条
: ,由AI判定,这样能让全民的认知是公平
: 同样的事实与背景资料,会有相同的判决
: 当然AI判案,可能要有一定的学习时间,也需有再确认机制,避免电脑bug
: 以现在的AI技术,要设计来判案应该不难
: 当然,这可能有争议,但这是一条必走的路
AI没你想的那么好。
简单一个问题,那就是谁教AI?
说白点就是AI的逻辑和判定模式还不是人类决定的,所以谁能决定AI的行为不就能控制AI
吗?最终还不是回到人身上。
另外AI就不会取巧或出错吗?
之前才好几个例子。
硅谷超夯脸部辨识 AI,竟对种族歧视更严重
https://technews.tw/2020/06/21/ai-racial-discrimination/
AI 差别待遇的问题,其实已经出现在美国。根据一位麻省理工媒体实验室的资料科学家
乔伊‧波拉维尼(Joy Buolamwini)所做的研究,她发现由微软、亚马逊与 IBM 等公司
研发出的脸部辨识 AI 算法,对于判读白人,以及黑人与女性竟然出现了差别待遇。
也就是判读白人的正确度比较高,判读黑人与女性的正确性则低。虽然这个漏洞并不全是
人为刻意造成,它造成的冲击,可能比街头上歧视黑人的警察更严重。
亚马逊 AI 在履历筛选中歧视女性?AI 犯错不是第一次了
https://technews.tw/2018/10/17/ai-discrimination-mistakes/
所以没那么简单啦!
作者: gogen (gogen)   2020-07-19 06:04:00
谢谢指导
作者: arrenwu (键盘的战鬼)   2020-07-19 06:07:00
AI就是会取巧才夯啊 不取巧的都是些算不完的
作者: wmtsung (Tsung)   2020-07-19 06:14:00
就跟之前乱玩AI回话机器人一样,最后AI学了一堆垃圾话

Links booklink

Contact Us: admin [ a t ] ucptt.com