[新闻] AI 当法官,会是正义女神的化身吗?专访

楼主: qazsedcft ( 蛋包饭 )   2020-09-22 02:46:37
1.媒体来源:
natgeomedia
2.记者署名:
刘芝吟
3.完整新闻标题:
AI 当法官,会是正义女神的化身吗?专访李建良
4.完整新闻内文:
人工智能变身法律小帮手
十几年前,电脑会拣土豆已经够惊奇,现在的 AI 更是大进击,能辨识人脸、驾驶汽车,根
据 2019 年众多媒体报导,欧洲爱沙尼亚甚至即将推行“AI 法官”!法律事务涉及事实认
定、法条解释与价值规范等多重问题,人工智能果真已如此高“智慧”,有能力涉入复杂的
法律领域?
https://i.imgur.com/5IMIg2e.jpg
前两波人工智能(AI)希望电脑能像人一样思考,但皆失败。2010 年至今的 AI 热潮由“
机器学习”领衔,简单来说就是我们提供大量资料,让电脑自己找出事件之间的关联规则,
学会判断,在许多领域都已比人类预测得更精准。 资料来源│〈人工智能在台湾〉演讲,
陈升玮
中研院李建良特聘研究员说:“将 AI 应用到法律诉讼其实并非未来式,而是行之有年的现
在式。”
在美国,近年法院已广泛运用“COMPAS”系统,这是一套由商业公司开发的 AI ,帮助法官
评估被告的再犯风险,作为量刑的准据。COMPAS 会进行大量问答调查,依据被告回答、年
龄、过往犯罪纪录与类型等各项资料,推估被告的再犯率,给出 1-10 的危险指数,最后
由法官决定被告服刑的长短。
有研究指出,AI 判定为高风险者,63% 在交保期间犯罪,其中 5% 犯下性侵或谋杀。做
为法官小帮手,AI 似乎确实能发挥一定程度的“鹰眼”,预测危险性。
https://i.imgur.com/PL875Cm.png
国内也逐步尝试将 AI 运用在量刑与家事判决预测。司法院建立的“量刑趋势建议系统”,
以自然语言分析判决书,提供类似案件的量刑参考。清华大学研究团队则开发出“AI 人工
智慧协助家事判决预测系统”,让 AI 从判例“学会”法官的判决模式,预测抚养权花落谁
家。 图片来源│ 取自量刑趋势建议系统网页
法官不是人?!别急,再等等
从现况来看,人工智能确实已进入国家司法系统,但目前仍作为“专家团队”扮演辅助角色
,由法官做裁决。那么下一步, AI 有可能独当一面坐上审判席吗?
爱沙尼亚的 AI 法官计画,似乎就朝着这个方向前进。
根据报导,AI 法官将处理小额民事诉讼案件(少于 7000 欧元,台币约 24 万),由原告
方输入诉讼对象、金额、提告理由等。AI 系统能从过往大量判例学习,解析法条做出判决
。换句话说,隔壁邻居摔坏你的 iPhone,你一状告到法院,会由 AI 判定谁胜诉,邻居该
赔你一台手机或折价金额。对结果不服?可以上诉,将有人类法官审理。这项超级计画如果
成真,“法官不是人”恐怕就要从骂人话变为描述句了!
不过,李建良特别澄清:“媒体报导后,我们研究团队成员曾请教爱沙尼亚法界人士,目前
所知这是数位政府计画的一部分,但应该还只停在‘计画’阶段。”
他强调,若要把国家审判权完全交给 AI ,必定需要法源基础,明确建立一套法规方案。由
于目前爱沙尼亚并没有出现相关法规,这个突破仍是“只闻楼梯响”。
AI 法官的技术边界:它能做出好判决吗?
尽管 AI 尚未披上法官袍,但爱沙尼亚构想仿佛是惊天一雷,预示出可能的未来图像。许多
人或许有同样的好奇:AI 当法官究竟行不行?
李建良分成不同层次来讨论:
"行不行有两层涵义:能力上行不行,规范上可不可以。"
第一层次是“可能性”问题:AI 法官足以担任人类法官的角色吗?更直白地问:AI 真有那
么厉害,能够做出好判决?
要确认 AI 的能力,首先我们得问:什么是好判决?
“这牵涉社会对法院判决的评断标准。”李建良分析,一种标准是检视“判决结果”;另一
种则是审视“判决理由”,法官在判决书详述的心证,如调查结果、采信哪些证据、证据效
力、法条依据等。
若观察近年台湾社会的现象,大众似乎较关注判决结果。好比引发社会瞩目的“台铁杀警案
”,这桩尚未确定的争议案件,引发了司法当局对司法鉴定制度的重视与检讨,而舆论譁然
多半是杀人无罪的结论,批评法官“不接地气”,关于心证过程的讨论相对较少些。
换言之,假如重视结果,那不难想像 AI 法官有能力透过归纳、类比分析对案件做出判决。
但若我们在乎法官为什么、如何做出裁决,依照目前技术和爱沙尼亚计画,AI 所产出的可
能只有答案,但没有理由(或较简式的理由)。
这形成了第一重挑战:
"若 AI 法官无法清楚说明理由,我们如何检视它的判决好不好?有没有瑕疵?"
有些人也质疑,AI 的精准、一致可能反倒是弱点。现行 AI 不具有真正理解他人的能力,
无法实际参与答辩交锋和开庭审理,而许多讯息来自临场、个别案例的判读,并非用数据化
与资料化就足够解释,背后涉及文化、风俗、情境常识,相当复杂。
https://i.imgur.com/ml6ADKW.jpg
目前的人工智能仍属于“弱 AI”,没有意识、思考能力,只是透过巨量资料与机器学习归
纳出已知和未知之间的关联。哲学家 John Searle 曾用“中文房”譬喻提出挑战:如果 AI
并不了解真正意涵,就算它能和人一样做出正确回应,似乎也不代表它就有独立的心灵意
识。图说设计│ 刘芝吟、林洵安
不过,AI 派并没有全输!
首先,技术可能超前突破,让 AI 未来也有能力写判决书、说明论证。另外若拿现行制度相
比,美国陪审制同样只宣告:“陪审团认为无罪”,不会附上理由。更何况所谓的情境判断
,经常也会造成主观性偏误,《美国国家科学院院刊》(PNAS)研究发现,接近午餐时间法
官对假释认定较严格,用餐休息后,假释审查就变宽松了!
想要假释,还得祈祷法官吃饱饱?恐怕多数人难以接受。
铁面无私包青天? 小心 AI 的内建歧视
总地来说,理性、客观几乎是 AI 的最大光环,以准确一致的逻辑做判断,不受法官个人情
绪与好恶影响。
但真是这样吗?许多研究证实:AI 默默戴上了有色眼镜! COMPAS 系统被抨击带有种族歧
视,有色人种更容易被预测为高再犯率;亚马逊招聘、苹果信用卡信贷系统都曾被发现隐含
性别差别待遇。
“这就如同人类一路走来看到的历史不平等。”Amazon 资讯科学家说。
AI 系统在资料学习的过程,复制了人类长年累积的性别、种族、阶级偏见。即便这些偏见
已长久存在,但 AI 可能更强化不平等,因为人们会在毫无所觉下,信任科技工具的“客观
”讯息,对陌生人打分数。
然而,科技支持派没有全盘放弃。AI 歧视是学来的,因应之策是在资料训练时降低这些“
标签”,并且提供多样性的资料。此外,比起人类刻意包装、掩饰偏见,AI 反而有机会让
偏误被“显题化”,让我们更加警觉,并进行修正。
综合而论,若单从技术可能性评估,目前的 AI 也许不够“聪明”,但是只要科技持续追求
突破、进展,似乎没有理由全盘否定 AI 法官可行性。毕竟,人类同样也会犯错、误判、有
偏见。
“从能力来看,AI 确实可以帮助人类、补位弱点,很值得期待未来发展。”李建良持平分
析:“但国家是否应该开放制度,更重要的仍在第二层次的考量。”
AI 法官需要明确法源基础
他点出更关键的第二层议题:从规范角度来看,让 AI 当法官可不可以?
简单来说,即使人工智能有能力独立分析、判决,我们应该把审判大权交给 AI 吗 ?是否
可能衍生伦理问题?
“第一个遇到的是:需不需要修宪?这是多数人忽略的框架。”专研宪法、行政法的李建良
特别指出。法官的身分保障及审判独立的要求是直接写在宪法上头的,但宪法规定的法官是
不是专指“人”呢?法学界可能有不同论述。
如果宪法说的法官专指“人”,也就是法官审判权奠基在人的前提,势必需要修宪。反之,
就算宪法允许“非人”担任法官,仍然需要修法 ── 如同刚拍板的《国民法官法》,国家
同样必须建立一套法制来规范非人法官。例如,适用民事或刑事案件?能上诉吗?上诉后交
给另一位 AI 法官(AI 会有不同法官吗?),或者由人类法官打掉重来?
价值选择的难题:科技优势 VS 法律原则
法源基础仅是第一步,对整个社会而言,AI 法官挑战的是价值选择的难题。
2013 年,美国威斯康辛州法院参酌 COMPAS 风险指标,判处被告 Eric Loomis 6六年徒刑
。Loomis 不服而上诉最高法院,认为法庭以 AI 系统裁决是一种“祕密审判”!要求说明
COMPAS 系统如何演算判断出危险值。
这个案例显然暴露了 AI 法官的价值冲突:算法黑箱(black box)
“在民主法治国家,法官不是个人,他代表的是国家。审判必须在公开透明的运作下,被监
督、检验、究责。”李建良说:“法院公开审理、法官说明判决理由,都是来自这种被检验
的要求。”
倘若披上法官袍的 AI ,无法开庭、诘问、说明判决理由,让审判摊在阳光下,势必挑战现
行的法院体制,也可能稀释透明、公开、负责的司法价值。我们无从知道它为何会做出 A
判决,而不是 B 判决,不能确定它有没有失误,也难以确认责任归属。
Loomis 案也突显出另一挑战:代罪羔羊! AI 推测来自过往的资料,但“相似条件的其它
人这么做,不代表个别主体也会这么做”。
这同时让人担忧 AI 的“因袭性”:社会信仰的美好价值是不断翻转、改变,有时正是因为
划时代的法院判决,才让我们终于能破除传统、确立新价值,例如美国法院推翻种族隔离平
等制度,AI 法官会不会弱化、压缩了法律肩负的深刻意义?
李建良直言,第一层次的“能力可行性”是人与 AI 的 比较参照,AI 能做到什么,补足哪
些人类弱点,带来什么优势。
"但最终,“伦理辩证”仍是无可回避的关键核心,当新科技打破、牴触基本价值,我们是
否愿意为了科技可能提供的“客观公正”,放弃退让这些原则?"
https://i.imgur.com/L9sovkr.jpg
我们愿意授权给一套科技系统,让它判定人们是否有罪,剥夺我们的人身自由(甚至生命)
吗?李建良认为,AI 法官的伦理争议势必挑战人类的信任边界,最终将深刻探问人类对科
技制度的核心信念。图片来源│ iStock
人文关怀,也是艰困的价值论辩
“这不会是全面赞成/反对的选择题,因为 AI 法官很难普遍性适用每一种案件。”李建良
强调。
AI 在资料统整、数据分析上已大放异彩,导入科技新工具、人机合作,可以减轻法院负担
,也拉近一般人与诉讼裁决的距离。然而,法律范畴高度复杂,即便未来开放 AI 法官,也
必定是在特定的条件、脉络与案型。
他以行政法说明,“大埔农地要不要征收?美丽湾渡假村能不能盖?这类行政法案件极度复
杂,牵涉环保、制度、法规多重冲突,还有价值选择的命题,不太可能由 AI 独立裁决。”
更重要的是,即使技术边界有机会突破、修正,让 AI 愈来愈聪明,我们也不应回避第二层
次的伦理辩证。这也正是人文学科最重要的价值关怀。
“我们很容易倒过来想,认为有这么多好处,为什么不开放、不使用?但人文学者关注的是
价值伦理,一旦越过了某些界线,无论多少优势,我们都必须谨慎、严肃地看待。”李建良
提出艰难考验做类比:
"当你明确知道这人是凶手,却没有任何证据,这时我们要不要放弃无罪推定,不计手段坚
持罪有应得?这就是价值选择的论辩。很困难,但很重要!"
“人文学者的使命,是预先关切各种可能的问题。”面对 AI 大跃进,李建良集结法政、社
会、哲学学者展开长期跨领域计画,关切 AI 应用的人文思辨。他这么说:“客观来看,目
前的 AI 技术还无法高度涉入法律系统,但当我们做更多思考对话,才能让社会更清楚彼此
的价值、信念与方向。” 摄影│林洵安
https://i.imgur.com/BtxnJ8s.jpg
5.完整新闻连结 (或短网址):
https://www.natgeomedia.com/science/article/content-12049.html
6.备注:
小笔记
⑴爱沙尼亚推动AI 法官还滞留在计画阶段
⑵现行制度已引入AI 协助法律工作
⑶AI法官 难以检验,且可能因“客观”的既定印象更加深歧视,再者AI 的因袭性恐难面对
不断变迁的社会。
⑷AI法官 需要法源基础
⑸不代表AI 法官必定不好,而是在制度下还需要更多讨论
作者: niburger1001 (妮妮汉堡)   2020-09-22 02:49:00
支持初音当法官
作者: wilson3435   2020-09-22 02:49:00
这是一个好方向, 我的梦想是有一天高官全都AI,人类管事的上限就那样了,自私是人的天性
作者: pinhanpaul (没风度到极点的病)   2020-09-22 02:52:00
免费玩家还想要无罪判决?
作者: vwwv (.....)   2020-09-22 02:53:00
楼上弱ai会完全复制人类自私的天性,就如同文中的隐性歧视一样,所以除非ai发展出现奇点
作者: s9234032 (WhiteWater)   2020-09-22 02:53:00
谁决定算法 谁就决定了权力
作者: StylishTrade   2020-09-22 02:53:00
强AI会把人类当奴隶人类的未来 颗颗
作者: qq204 (好想放假...)   2020-09-22 03:00:00
比自由心证的废物法官好
作者: arrenwu (键盘的战鬼)   2020-09-22 03:06:00
爱沙尼亚那个看起来就只是嘴砲而已。一个没有裁判书的判决等于是大家可以随便上诉 反正也不知道怎么判的
作者: s9234032 (WhiteWater)   2020-09-22 03:11:00
其实看立法院就知道了阿,反正就那种鸟样子除非来个天网消灭人类,不然只是换个形式的剥削而已
作者: wilson3435   2020-09-22 03:13:00
我就是希望强ai 控管全人类啊
作者: eric21489 (Calpis)   2020-09-22 03:15:00
training data别用台湾的或许可行
作者: arrenwu (键盘的战鬼)   2020-09-22 03:16:00
强AI............ 真的是连个影子都没有XDD
作者: d22426539   2020-09-22 03:18:00
ai懂可教化吗
作者: kkkaq123 (negneghi)   2020-09-22 03:23:00
这样谁把握了程式语言 谁就是胜诉判决 如果矛盾对决 AI要怎么玩 直接罢工吗
作者: wu73 (煞气der法师)   2020-09-22 03:23:00
作者: tw4563335 (tw4563335)   2020-09-22 03:32:00
台湾都恐龙法官 AI学完不就也变恐龙??
作者: lesterc (尾大力)   2020-09-22 03:50:00
终于
作者: allenlee6710 (猫抓板!!!)   2020-09-22 04:14:00
正义跟公平没有绝对的答案 某种程度只是换成工程师宣判罢了 就算是算法 也要有人告诉电脑对不对
作者: arcysaint (allensaint)   2020-09-22 04:36:00
支持啊,效率大幅提高还大幅减少成本一堆自由心证远远不如立个中央标准
作者: chou3321 (半糖乌龙绿茶)   2020-09-22 04:48:00
大概有生之年都不会实现啦
作者: crazycomet (QQ惹)   2020-09-22 06:43:00
会不会有超强骇客进入
作者: riker729 (riker)   2020-09-22 06:45:00
AI是需要学习的 但我猜学历史判决可能就当机了一堆案例相当判决相反 或一二审180度转弯
作者: lulocke (( *‵ω′)人(бвб ))   2020-09-22 07:06:00
大概全国律师都反对 这样很难骗法官
作者: froce (froce)   2020-09-22 07:44:00
当你的判例都是恐龙的标准时,AI也只会判出恐龙能接受的结果。

Links booklink

Contact Us: admin [ a t ] ucptt.com