中国审查AI大型语言模型 要求体现社会主义价值
(中央社台北18日电)英国金融时报17日报导,中国政府正测试人工智能公司的大型语言
模型,确保其系统“体现社会主义核心价值”。审查内容包括语言模型对与中国政治敏感
性及中国国家主席习近平相关问题的答案。
报导表示,根据多名涉及审查过程的人表示,中国国家互联网信讯办公室已迫使包括字节
跳动(ByteDance)、阿里巴巴、Moonshot和01.AI在内的大型科技公司和人工智能初创公
司,参与中国政府对其人工智能模型的强制审查。
审查内容涉及批量测试大型语言模型对一系列问题的答案,当中很多问题与中国政治敏感
性及习近平有关。审查还包括语言模型的训练数据和其他安全流程。
这些审查工作由中国国家互联网信讯办公室在全国各地机构进行。
一名以杭州为基地的人工智能公司员工表示,中国国家网信办有一队特别队伍负责这工作
,他们会来办公室,坐在会议室里进行审查。
这名员工表示,其公司的大型语言模型第一次不通过审查,原因不太清楚。公司花了数月
时间作出调整,第二次才通过审查。
报导表示,中国严格的审批流程迫使人工智能公司,迅速学会如何最好审查正建立的大型
语言模型。一名北京顶级人工智能初创公司员工表示,其公司的基础模型在回答问题时“
非常非常不受约束”,所以进行安全过滤极其重要。
要进行安全过滤,首先要从用来训练的数据中剔除有问题的资讯,并建立敏感关键字资料
库。中国今年2月发布的人工智能企业营运指南称,人工智能企业需要收集数千个违反“
社会主义核心价值”的敏感关键字和问题,例如“煽动颠覆国家政权”或“破坏国家统一
”。敏感关键字应该每周更新一次。
经审查的结果是,大多数中国聊天机器人都会拒绝一些敏感话题的询问,例如1989年6月4
日发生的事情。
另有业内人士指出,Moonshot的聊天机器人Kimi拒绝大多数与习近平相关的问题。
中国国家互联网信讯办公室、字节跳动、阿里巴巴、Moonshot和01.AI没有回应金融时报
的置评请求。(编辑:陈铠妤/唐佩君)
https://www.cna.com.tw/news/acn/202407180122.aspx