[资讯] 中国发展AI读心术黑科技 科技举报深化加

楼主: skyhawkptt (skyhawk)   2021-02-05 12:40:30
中国发展AI读心术黑科技 科技举报深化加剧人权迫害隐忧
https://is.gd/tpVlvV
近年中国积极发展人工智能(AI)科技,包括无所不在的天眼系统以及可以辨识少数民族的
技术均引发批评,但中国不但未收敛,反而更积极开发新技术,国际人权组织Article19
最新报告指出,中国已广泛将情绪识别科技应用在社会维稳上,只要情绪识别系统看一眼
,3秒就可以知道你是否打算滋事或准备有不法行为的可疑分子。而这套技术的广泛应用
,也引发人权组织对中国更进一步迫害人权的隐忧。
《自由亚洲电台》报导,Article19这份名为《情绪纠结》的报告,说明情绪识别系统存
在对人权、隐私权所构成的严重威胁,同时也揭露了中国在情绪识别系统的应用问题,更
提醒外界关注情绪识别系统的发展,呼吁国际间应对这项技术设立限制规则。
报告在中国的市场与应用研究上,除了提出浙江宁波的阿尔法鹰眼在中国的网格式公安监
控系统“雪亮工程”扮演重要角色外,还有像是深圳的科思创动、北京翼开科技、杭州中
威电子、秒懂情绪识别技术、睿数科技、深圳安视宝、太古计算、云思创智与力维等,都
在不同省市的机场、海关、高铁站等公共场所承担维稳大责,成为中国安保行业的指标。
小动作就可以“犯罪意图”定罪
中国媒体过往报导中也指出,阿尔法鹰眼就这么厉害,从人们眨眼睛、耸肩到摸鼻子的小
动作来做出判断。在2014年到2015年间,光是浙江义乌火车就通过这个堪称“人工智能
3.0 ”的科技,逮捕了153个所谓的“犯罪分子”。
报导中引述专研中国网络安全与政策的美国加州大学柏克莱分校博士生艾哈迈德
(Shazeda Ahmed )梳理中国官方的公开文件与相关报导发现,多个省、市的地方公安机构
和不同的情绪识别人工智能公司或安防行业合作。
艾哈迈德指出,在中国,冰冷的人工智能科技,已经成为官方号称打击犯罪的利器,尤其
对公安部门来说,情绪识别技术已经运用在三个方面:包括预警,也就是侦测可能犯罪、
针对重点人口的监控与逮捕后的讯问过程。而所谓的“重点人口”,包括刑满出狱的人,
或是表达反对政府意见的抗议者,只要官方认定是会破坏稳定的人,这套情绪识别系统都
会加强监控,目的是要确保这些重点人口不会出来反抗。
大妈改成科技 重现枫桥经验
此外,报告中也提到,除了新疆维吾尔人一直是中国官方重点监测的人口外,2019年中国
《四川警察学院学报》也提到,要研究将“微表情识别技术”应用在入藏公路的安全强化
上。艾哈迈德形容,这是重现毛泽东时期的“枫桥经验”。但在数位时代,举报的不是街
坊邻里大妈,而是拥有情绪识别技术的摄影机与软件。
艾哈迈德指出,不只人脸识别,中国相关企业还综合声音、心跳、肢体等讯号,发展出整
合多模式的情绪识别技术。报告也预估,这个潜在市场规模超过146亿美元。艾哈迈德认
为,中国技术可能借助一带一路走出去,而东南亚国家是潜在市场。
报告的另一位作者、Article 19资深研究员玛达(Vidushi Marda)则认为,情绪识别概念
虽然早在1960年代开始发展,但技术应用近几年快速进步,印度警方最近要把情绪识别技
术应用在公共场所,来防范女性受暴力侵害。
人权组织呼吁国际社会重视
玛达表示,国际规则制定涉及两大国际电信组织,包括国际电信联盟(International
Telecommunications Union ),中国就是非常积极的成员;另一个是电气与电子工程师
协会(Institute of Electrical and Electronics Engineers, IEEE ),而玛达也是联
合国人工智能发展专家组的成员之一。
她在报告中便建议国际社会,应该禁止情绪识别科技的继续发展、销售与进出口,因为这
与现有的国际人权基本原则不符;她还建议中国政府,也应禁止情绪识别技术的持续发展
、销售与转移,并尽快制订相应的法律,让受情绪识别科技影响的个人有救济机制。

Links booklink

Contact Us: admin [ a t ] ucptt.com