https://www.techbang.com/posts/73794-csgo-faceit-ban
面对游戏中大量令人反感的谩骂与歧视,电子竞技游戏平台 FACEIT 与 Google 旗下的 Cloud、Jigsaw 共同合作,开发出一种全新的 AI 管理员“Minerva”,致力于在最短的时间内,让透过言论恶意攻击他人的玩家,能第一时间受到惩罚。
“Minerva”在历经数个月的调整、除错,训练分析了超过 200,000,000 条文字讯息,并将其中 7,000,000 则言论标示为谩骂或垃圾内容,借此显著降低误报率后,今年八月左右开始在 FACEIT 旗下的《CS:GO》竞技平台上线。
FACEIT 表示,自从“Minerva”开始运作后,大约一个半月的时间中,AI 至今已发出了超过 90,000 条“Toxic”行为的警告讯息,并有 20,000 个帐号实际遭到封禁或惩罚,然而这些过程都无需人为干预。
FACEIT 在官方部落格中,解释了“Minerva”的实际运作方式:当 AI 认为玩家在游戏中送出的文字聊天讯息,涉及谩骂或歧视等不适当行为,就会立即对该发讯者提出警告,并将类似的聊天内容标记为垃圾讯息。
接着在该场游戏结束后的几秒钟内,“Minerva”会再度检视违规者的言论,如果确认了该名玩家不断滥用文字攻击他人,就会马上祭出惩罚,限制玩家无法立刻配对下一场比赛,直到冷却时间结束为止。
以宏观的角度来看,“Minerva”AI 管理员不但能对漫骂者有效进行惩罚,也大幅减少了“Toxic”言论出现的机率,从 8 月份的 2,280,769 条,降低到了 9 月份的 1,821,723 条,比例达 20.13%,成果十分显著。
官方指出,“Minerva”的聊天讯息检测功能,只是开发团队在庞大 AI 愿景中的第一步,未来他们不仅进一步训练“Minerva”,更有可能将它带到其他竞技游戏。