国科会提出《人工智能基本法》草案 建构AI发展规范与治理框架
原文网址:https://bit.ly/3Y4mHI9
原文:
近年来,人工智能(AI)技术的快速发展为产业和社会带来广泛的经济和社会效益,同时也
可能对个人或社会带来新的风险和影响,欧美也陆续推出人工智能相关法案。为因应这一
趋势,国科会提出《人工智能基本法》草案,旨在确立推动AI技术与应用发展的方向和作
法,并建构良善的运作环境。
这项法案的制定目的包括促进以人为本的AI研发与应用,维护国民生命、身体、健康、安
全及权利,提升国民生活福祉,维护国家文化价值及竞争力,并增进社会国家的永续发展
。草案中明确定义了人工智能,并提出了七项基本原则,包括永续发展与福祉、人类自主
、隐私保护与资料治理、资安与安全、透明与可解释、公平与不歧视,以及问责。
政府在草案中承诺积极推动AI研发、应用及基础建设,并妥善规划资源整体配置。这包括
提供相关产业补助、委托、出资、奖励、辅导,或租税、金融等财政优惠措施。同时,政
府也将致力于完善AI研发与应用的法规调适,以不妨碍新技术与服务提供为原则。
为促进AI技术创新与永续发展,各目的事业主管机关将建立或完备AI研发与应用服务的创
新实验环境。政府还将以公私协力方式推动AI创新运用,并致力于推动AI相关的国际合作
,促进人才、技术及设施的国际交流与利用。
在人才培育方面,政府将持续推动各级学校、产业、社会及公务机关(构)的AI教育,以提
升国民的AI素养。同时,政府也将致力于避免AI应用造成国民生命、身体、自由或财产安
全、社会秩序、生态环境的损害,或出现利益冲突、偏差、歧视等问题。
草案中提出了AI风险分级框架的概念,由数位发展部参考国际标准或规范推动,各目的事
业主管机关可据此订定其主管业务的风险分级规范。政府还将透过标准、规范或指引,提
升AI决策的可验证性及人为可控性。
为建立AI应用的负责机制,政府将依风险分级推动相关标准、验证、检测、标记、揭露、
溯源或问责等机制,提升AI应用可信任度,并建立明确的责任归属与归责条件。同时,草
案也强调了保障劳工权益、个人资料保护,以及提升资料利用性与国家文化价值的重要性
。
对于政府机关使用AI执行业务或提供服务,草案要求进行风险评估并规划因应措施,以符
合基本原则。各机关还需根据业务性质订定使用规范或内控管理机制。此外,政府将建立
资料开放、共享与再利用机制,提升AI使用资料的可利用性,并致力于提升资料品质与数
量。
最后,草案要求政府在法案施行后检讨及调整所主管的职掌、业务及法规,以落实法案目
的。在相关法规制定或修正前,由中央目的事业主管机关协同中央科技主管机关依本法规
定解释、适用。
《人工智能基本法》草案公告刊登于“公共政策网络参与平台”,对于公告内容有任何意
见或修正建议者,可于公告后60日内陈述意见或洽询“国家科学及技术委员会前瞻及应用
科技处”。
《人工智能基本法》草案展现了政府积极推动AI发展的决心,同时也展现了对人权保障、
风险管理的重视。透过建立全面的法律框架,希望能够在促进AI创新发展的同时,也能确
保AI技术的应用符合社会公义、尊重人权,并能有效管控潜在风险,进而实现AI技术与社
会发展的良性互动。