美国商务部研拟AI责任规则政策,以建立负责任与可信任的AI发展
https://bit.ly/3zVi0TJ
4月11日,美国商务部国家电信暨资讯管理局(National Telecommunications and Information Administration, NTIA)发起一项人工智能(AI)责任政策的公开意见征求,旨在促进AI系统的生产力效益,同时防止其对个人和社会造成不利影响。透过意见征求来收集各界的见解,为美国政府在政策推动与制定上提供资讯,同时也能确保政府在AI相关风险与机会上,采取统一且全面性的方法。
人工智能技术正在快速发展,成为当今数位时代的一个关键领域。AI系统可以帮助人们完成许多工作,并对全球经济和社会带来了重大的影响。然而,随着AI技术的发展和应用越来越广泛,人们对AI潜在的负面影响也越来越担心。
例如,AI可能受到设计者偏见或训练资料偏见的影响,产生歧视性言论或行为。在无法确认AI模型适用范围的前提下,过度依赖AI提供的资料和建议将导致糟糕的决策,或者甚至在某些情况下导致灾难性的后果。因此,确保 AI 系统的责任制生态系统是必要的。
NTIA希望透过此次征求意见,了解AI生态系的现状和挑战,并制定出适用于不同领域和场景的AI责任制原则和标准。这些政策可能涉及AI系统的可解释性、可验证性和可监管性,以及数据的隐私和安全保护等方面。NTIA的目标是建立一个符合法律和道德规范,并能够满足社会期待和需求的AI责任制框架,从而推动AI技术的持续创新,并为人类带来更多的利益。NTIA 的征求意见将主要集中在三个主题:
在开发和导入AI过程,AI 开发公司和企业客户应进行那些类型的信任测试和安全测试
进行审计和评估所需的哪些数据存取
监管机构和其他参与者如何透过奖励和辅助机制,确保AI系统的风险评估、测试验证、认证审核等工作,促使企业或公司提供可信保证的AI产品和服务
NTIA局长Alan Davidson指出:“负责任的AI系统能带来巨大好处,但我们需要解决其可能带来的后果和危害,才能让这些系统充分发挥作用并让企业和消费者信任它们。”他进一步表示,NTIA的询问旨在促进AI审计、风险和安全评估、认证以及其他政策,以建立对AI系统的信任。
其声明中也引用了美国总统拜登的说明:“既要支持负责任创新,也要确保有适当的护栏来保护美国人的权利和安全”。除了商务部外,白宫科技政策办公室也提出了“人工智能权利法案蓝图”框架来指导人工智能和其他自动化系统的设计、开发和部署。美国国家标准暨技术研究院(NIST)也提出“人工智能风险管理框架”来建立、协调和支持相关 AI 风险的管理工作。