标题:中国情绪辨识科技普及化 侵害人权疑虑升高
新闻来源: https://is.gd/hRDKwM
(中央社伦敦27日综合外电报导)情绪辨识技术是透过脸部表情、声调变化或肢体语言等
生理特征,辨识人类情绪的最新科技。研究人员指出,尽管存在准确性和更严重的侵犯人
权等疑虑,这项技术在中国日益普及。
随着人工智能技术日趋成熟,情绪辨识技术的运用益发广泛,从侦讯时协助警方监控嫌疑
人脸部表情,到学校透过追踪学生眼睛移动装置揪出不专心上课学生等,都有这类工具用
武之地。
英国人权倡议组织Article 19本周发表调查报告,公布中国有数十家公司,在教育、公安
与运输领域提供这类工具。
Article 19的资深计画干部马达(Vidushi Marda)表示:“基于这项技术的种族歧视基
础和违反基本人权,应禁止相关设计、开发、部署、销售与转移。”
调查报告共同作者、加州大学柏克莱分校(University of California, Berkeley)网络
安全博士候选人阿迈德(Shazeda Ahmed)表示,科技工具无法可靠量测及量化人类情绪
。
她又说,这类系统可能会助长偏见,尤其是利用生理特征协助警方辨别罪犯的辨识系统。
这类系统也引发对一些新兴趋势的疑虑,包括蒐集情绪资料来监控学生、犯罪嫌疑人,甚
至利用辨识技术来侦测疲劳或不安全动作以监控汽车驾驶等。
阿迈德在电访中告诉汤森路透基金会(TRF):“一大堆这类辨识系统通常不会说明,它
们将会如何处理与长期运用这些资料。”
她补充说,“我们相当担心功能蠕变(function creep)”,指的是把蒐集到资料运用在
其他用途。
马达则指出,即使是那些看似无伤大雅的情绪辨识技术也可能造成伤害。她说:“这类监
控容易产生滑坡效应(slippery slope)”。
“举例来说,有一间学校引进监控系统评估学生在学校有无均衡饮食,不久后可能就会变
成情绪辨识系统,谁知道接下来又会演变成什么?”(实习编译:王宇洁/核稿:刘学源
)1100128
※每日每人发文、上限量为十篇,超过会劣文请注意
⊕标题选用"新闻",请确切在标题与新闻来源处填入,否则可无条件移除(本行可移除)