https://i.imgur.com/N5PZ4gl.jpg
大家好,台北市长参选人丁守中在2018年8月13日举办了一场“妇幼安全记者会”来说明
他参选的政见,其中以避免犯罪为由对单身独居男子进行预防性监控一项引发舆论譁然,
次日丁守中五度为此言论向社会大众道歉,上面的这张图是2018年8月14日苹果日报A10版
对此事的报导:“喊监控单身独居男 丁守中失言挨轰
https://tw.appledaily.com/headline/daily/20180814/38097401。”
另可参考以下影片和报导:
“丁守中:单身独居、失业男子易犯罪 应多查访
https://www.youtube.com/watch?v=iJtuOrMvT88”
“丁守中要加强监控单身独居失业男 网友:难怪20年选不上
https://tw.news.appledaily.com/ny/realtime/20180814/1410368/”
“贴单身失业男犯罪标签 丁守中道歉
https://www.youtube.com/watch?v=Q-317mfqhQ0”
“监控单身独居失业男惹议 丁守中道歉
https://www.youtube.com/watch?v=7VR_aYAF83U”
“"单身独居男"易犯罪? 丁守中挨轰歧视道歉灭火
https://www.youtube.com/watch?v=SMQii8m2cOI”
“"单身失业男易犯罪? 丁守中称非本意5次致歉
https://www.youtube.com/watch?v=zYfcdo1XAK4”
“丁守中"单身独居男子易犯罪"言论惹议 网友痛批干脆别说话了
https://www.youtube.com/watch?v=_eQUohrUKKM”
我( Frink Lau 刘天伦 )对丁守中并无恶感,但对他以大数据资料为由提出政见仍被砲轰
到承认错误被迫五度道歉感到庆幸,显然民众早已清楚认识到“数据资料”和“政客政策
”之间的巨大区别,并对新闻自由和多党政治的民主机制在避免政策发生错误的成效重新
燃起希望,对于数据和政策我想补充几点。
前天( 8/17 )是七夕也是我国的传统情人节,我( Frink Lau 刘天伦 )看到一位网美贴出
一张神情幽怨的照片并附文表示单身已久孤单、寂寞、觉得冷,底下网友见状纷纷表示怜
香惜玉,愿舍身为伴共结爱侣,不多时这位网美又发一文,娇嗔“我说我单身你们就真的
相信哩!!!!!”
首先,大数据的资料本身可能就是错误的,无法反映真实情况;真实世界里单身者未必会
承认自己单身,而已经有伴侣的人更可能因为各种原因伪装单身,这个部分完全是社会人
文,而他们基于各种原因对情感状态的描述都被统计到数字里;对数据进行计算固然属于
自然科学,但是数据的形成却是社会人文,而且数据随时在变化。
其次,就算数据是真的反映了实况,政客对数据的解释可能是错误的,在“贴单身失业男
犯罪标签 丁守中道歉 https://www.youtube.com/watch?v=Q-317mfqhQ0”第1分30秒左右
记者提到单身可能单纯只是个统计的结果,而不是事件发生的原因的说法。另一位参选人
李锡锟也提出犯人普遍吃白饭长大的说法来讽刺丁守中(
https://tw.appledaily.com/new/realtime/20180813/1410128/ )。统计结果随机杀人者
比较多数是单身究竟应该如何被理解,不同的参选人有不同的理解方式,也证明了民主
政治让多元意见有机会同时呈现的可贵。
最后,即使大数据的资料是正确的、并且政客对数据的理解是正确的, 政客由于本身的
无能、欠缺核心价值、被利益团体收买等种种因素,提出的政策可能是错误的。丁守中在
此例中最明显的错误是轻率提出“预防性监控”这种充满侵犯人权疑虑的手段作为对策,
尤其在以科技进行监控越来越为容易的今天,民众对政府随便找个理由搪塞就来侵犯人权
的做法也越来越有警觉。在“丁守中要加强监控单身独居失业男 网友:难怪20年选不上
https://tw.news.appledaily.com/ny/realtime/20180814/1410368/”里网友直接就把
“查水表”三个字写出来,台湾人民在过去争取民主的过程中对“查水表”早已有清楚的
认识,“查水表”的目的从来就不是“水表”而是在进行恐吓施压。对于一个问题,什么
政策手段是洽当的、什么不是,直接考验不同政党和参选人的政治能力,不同参选人提出
不同对策让选民进行比较,正是民主政治的可贵。
下面几张照片是2018年6月25日在台北市举行的数位经济论坛,我( Frink Lau 刘天伦 )
偶然有幸参加,其中几位与会者花了一点时间谈AI和大数据有可能误用,在此一并写出。
https://imgur.com/Gxeo7OL
https://imgur.com/Mqrfc7d
https://imgur.com/08u6dZz
https://imgur.com/m70rYgm
上方第一图,与会者提出今年(2018)二月纽约时报的报导,有些 AI 开发者已经察觉,
对于目前开发出来的人脸辨识科技,不同种族和肤色的受测者会有不同的正确率,也就
是说不同种族肤色的族群会因为这项科技的使用而产生社会不公,这个公平性( fairness
)的问题已经在美国引起广泛讨论。如何以能够赢得社会大众信任的方式进行 AI 设计,
其他另一些应该注意的面向在上方第二、三图被讨论。最后第四图,在座谈会上国发会的
代表和其他与会人士讨论到什么官方拥有的大数据资料应该释出,我( Frink Lau 刘天伦
)想提醒读者本篇丁守中的例子即是政府( 卫福部 )的资料释出之后才能进行的讨论,因为
有不同的人进行讨论,不同的意见才得以被提出来并加以比较。另外与会者在讨论时也
提到AI、大数据的误用可能导至社会阶级流动停滞的问题,值得注意。
我并未将与会者的讨论都录成影片但我有在这场论坛拍一些照片,也放上来和大家分享:
2018数位经济论坛1/2
http://www.peopo.org/news/375651
2018数位经济论坛2/2
http://www.peopo.org/news/375655
谢谢大家。