[鲁蛇] 从AI训练思维来看游戏平衡这件事

楼主: PosetMage (AI魔法师公会长老)   2023-04-11 20:20:45
如果要训练AI当策略游戏的平衡还有拿来当AI的思维:
先分类型 规则多的或者数值多的
规则多的基本上必须以decision tree为主的方式去设计AI
数值多的话则很好套用hidden layer的概念
当然是建议规则类型能减少就减少,毕竟越多规则会造成复杂的程式码
魔法风云会就是规则多 然后多到还有官方出被自己方官方禁卡的智障行为
写成程式当然也是超级麻烦
训练过程可以定义方向会方便很多,比如战棋或者卡牌或者RTS有"胜负"
因为可以定义胜负了,所以可以采用强化学习(Reinforcement learning)去让AI左右互搏
学到一定程度之后,检查"strategy space" 和 "strategic depth"
如果Strategy Space太小就是平衡太差,
好的平衡就是尽可能扩大Strategy Space 从这个定义可以看出训练上的困难,
因为AI训练是要找一个最好可以收敛的方向,比如胜率最终双方会趋于50:50
(一般来说通常有先发优势,可能是55:45,举例来说,麻将就是25:25:25:25,四个高手
一起打就是平均值在平手。)
问题是我们想要并不是一个收敛的结果,而是尽可能发散的Strategy Space。
反向传播(Backpropagation)训练AI是只能往收敛走,无法往发散走的。
从AI概念可以推论出真把平衡做好的很难
玩游戏也可以看出这种天生的非对称性:
策略游戏玩家经常可以找到较好的策略,甚至因为某几招特别好用,大家都用同一招了
策略游戏制作团队却难以找到好的平衡,
比如Blizzard遇到平衡问题,就是先nerf再说"我们觉得这样很cool。"
作者: MrFishing (胡不归)   2023-04-12 10:21:00
推荐这位来自日本的魔法师大大(欸?
作者: tsrn46336686 (hahapointishere)   2023-04-12 22:02:00
谢谢大大分享 但感觉好像没什么重点@@
作者: strangechu (電冰箱)   2023-04-13 11:04:00
这笔记文体不知道你重点是什么 总之想表达平衡很难?
作者: Mchord (Mchord)   2023-04-14 12:26:00
generative model也是BP训练喔如何找得到的metric去定义strategy space才是问题
作者: ddavid (谎言接线生)   2023-04-16 16:39:00
制作团队不是比玩家难找到平衡,而是不值得花费那个成本在处理平衡问题前,最先要理解的是当你系统有一定的复杂性后基本上就不用考虑可以完美平衡了因为做不到,玩家也未必需要其他有些我以前本版老文章有聊到XD #1CGrc99x至于你讲 AI 一堆似是而非的内容,就不一一谈了……XD老实说类神经网络已经可以用相对便宜价格建立到一个程度时,基因算法这种口头上演化讲得很有噱头,实质上其实还是一种搜寻算法的东西能使用的范围就已经极度减少了
作者: cutearia (らちけん)   2023-04-25 00:04:00
GA的问题一样是后期收敛时大部分染色体解都相同,不觉得效果会比类神经网络好。怎么把你说的strategy space大小转换成reward/fitness来训练可能会有比较直接的效果

Links booklink

Contact Us: admin [ a t ] ucptt.com