[新闻] 英国及欧盟人工智能监管大不相同:英国

楼主: ynlin1996 (Kennylin)   2023-05-11 21:39:59
英国及欧盟人工智能监管大不相同:英国采取执导原则,欧盟以立法确立安全
https://bit.ly/41AU6s8
英国提出白皮书展开人工智能监管
英国近日在白皮书中提及,监管机关应该考虑的人工智能五项原则,分别是“安全、保障和稳健性”、“适当的透明度和可解释性”、“公平性”、“问责制和治理”、“可竞争性和补救”,以促进人工智能在监管方面的安全和创新使用,英国现阶段不是以立法来规范人工智能监管,而是经过进一步磋商及社会讨论后,上述原则可能会写入法条,要求监管机关实施。预计今年秋天英国政府将发布对磋商的回应、监管机关的跨部门原则以及人工智能监管路线图。
欧盟《人工智能法案》差一哩路通过
相比英国的缓步前进,欧盟人工智能监管则更具有里程碑,欧盟委员会于2021年4月提出《人工智能法案》(European Union AI Act),欧盟理事会2022年通过,目前正由欧洲议会讨论法案内容细节,业界预计2023年会通过法案。该法案针对不同人工智能系统/工具依照风险级别分成四类,从无风险、低风险、高风险到禁止,而使用者将依据风险级别承担不同义务,例如,高风险将着重于执法、移民、基础设施、产品安全和司法领域,使用者可能需要完成严格的风险评估,记录活动轨迹,并向主管机关提供资料以供备查,这将增加公司的合法成本。
监管机关、侧重领域、惩处之差异
英国规划由人权、健康和安全以及竞争监管机关之间分担管理人工智能的责任,风险在于缺乏单一监管机关下,监管机关会采取不同作法,而为了减轻该风险,白皮书提及英国政府将采取的措施,例如为监管机关发布实施原则的指南。相较之下,欧盟则透过建立新的专属监管机关,督促法规实施及确保在欧盟内统一应用,并由中央欧洲人工智能委员会及各成员国的国家人工智能主管机关组成协调网络。
英国监管侧重于特定部门及领域,例如,软件和人工智能作为医疗器械变革计划—路线图、更新人工智能及数据保护指南(提供生成式AI开发者及用户数据保护合法性路线图)等。欧盟则是跨部门全面性的监管,着重“禁止”及“高风险”的人工智能系统/工具,虽然确保更多的风险控管,但《人工智能法案》与既定产品安全制度之间存在重叠的可能性,企业需要关注合格标准及上市后监督的两种要求。此外,欧盟在2022年9月发布关于非合约民事责任规则适用的人工智能的指令提案,补充欧盟责任框架,旨在确保受到人工智能系统伤害者与受到欧盟其他技术伤害者享有同样水
准的保护。
针对人工智能相关的惩处,英国采取较宽松的方法,目前没有相关规定,而欧盟则是研拟最高3,000万欧元或全球营业额6%的罚款,以两者较高为之,而向监管机关提交虚假或误导性文件也可能导致罚款。

Links booklink

Contact Us: admin [ a t ] ucptt.com