Re: [鲁蛇] 从AI训练思维来看游戏平衡这件事

楼主: ddavid (谎言接线生)   2023-05-25 17:08:49
※ 引述《PosetMage (AI魔法师公会长老)》之铭言:
: → Mchord: generative model也是BP训练喔 04/14 12:26
: → Mchord: 如何找得到的metric去定义strategy space才是问题 04/14 12:27
: → ddavid: 制作团队不是比玩家难找到平衡,而是不值得花费那个成本 04/16 16:39
: → ddavid: 在处理平衡问题前,最先要理解的是当你系统有一定的复杂性 04/16 16:40
: → ddavid: 后基本上就不用考虑可以完美平衡了 04/16 16:40
: → ddavid: 因为做不到,玩家也未必需要 04/16 16:41
: 玩家未必需要那为什么MTG需要禁卡?
: RTS不需要平衡的话 那bz在nerf什么? 放著就好
你先思考一下,MTG 或 RTS 做完他所谓的平衡后,游戏有平衡了吗?
没有,他们做到的平衡只到避免极少数套路屠杀为止,只要环境可以保有多种策
略就好,但所谓的“多种策略”事实上相对于整个游戏的元素仍然是少数垄断。
例如 MTG 的赛场上仍然是特定几副套牌的垄断,但只要没有极端到只剩下一两
种套牌可以存活、没有极端到某张除了地牌以外的牌是所有套牌都得放的情况,WotC
就不会再进一步动手封禁了。
LoL 角色那么多,做得到角色平衡吗?没有,他们的做法是轮流让角色(特别是
好卖钱的新角色)出来透气,实际上仍然有差距极大的强势弱势角色之分,但只要做
到赛场上不会只剩下唯一选择就已经可以接受了。甚至有时还真的有超强的唯一选择
,但他们还额外设置了 ban角制度来解决。
: → ddavid: 其他有些我以前本版老文章有聊到XD #1CGrc99x 04/16 16:41
: → ddavid: 至于你讲 AI 一堆似是而非的内容,就不一一谈了……XD 04/16 16:44
: 你的文章问题是没有定义什么是完美的平衡(也没定义平衡) 反而在用乌贼战术打模糊战
:
: 你的文章说玩家算不完 算不完又怎样 用期望和机率算就好
:
: 很显然你对现代AI完全没有概念 ex: 扑克AI、麻将AI都是在打机率而不是传统决策展开
GTO 是不是奠基于决策展开计算的?AlphaGo 不用展开决策树?不管是 GTO 或
是剥削策略都是奠基于决策展开计算出来的机率期望值,会把机率跟决策分开认为是
两件事,很显然我觉得你要对现代 AI 跟打德扑都重新了解一下。这根本就是相关的
事情。
: 我在这篇就是在定义平衡是 "AI探访过后的Strategy Sapce"
: → ddavid: 老实说类神经网络已经可以用相对便宜价格建立到一个程度时 04/16 16:46
: 现在神经网络多半是拿来找方法 ex:AI下棋 AI打星海
:
: 都不是拿AI来调整数值做平衡
:
: 我在讨论的是用AI做平衡
我已经说了没人这么做就是因为价值很低:
1. 可能游戏根本不需要那么平衡,甚至有的游戏本来就是需要有一点动态的不平衡
变化来维持。
例如,LoL 的新英雄强势期。
2. 你在做决策训练的过程中,事实上大多数情况可以同时处理到平衡问题。
例如,围棋 AI 从头到尾都只是训练最佳化下棋的策略,但借由其结果,却也同
时得到人类对局确实以黑贴六目半是当前最平衡的选择(虽然白略优)。
因为以上两个主要理由,几乎足以涵盖大多数案例,所以相对少有公司直接投资
在直接用 AI 做平衡上。当然学术上往这个方向做也没什么问题,但要做到分析平衡
能远比用 2 顺便处理到还成本低廉,然后该产品又非常需要这么平衡的用例是真的
不多。
所以你要说我打模糊仗,那也可以,因为整个业界都在打这个模糊仗XD
不过我是从根本上想质疑你所谓“找发散”这种概念啦,我很鼓励你做个 toy
project 来展示一下所谓 找发散 => 做平衡 的因果,不然恕我想像不到你的思路
XD。我甚至对于你“找发散”的数学模型都非常好奇,请务必指教一下。
: → ddavid: ,基因算法这种口头上演化讲得很有噱头,实质上其实还是 04/16 16:47
: → ddavid: 一种搜寻算法的东西能使用的范围就已经极度减少了 04/16 16:48
: 我在提就是Backpropagation只能找收敛而非找发散
:
: 我本身就是在做AI的(使用算法到硬件指令做芯片加速都有) 如果你懂AI 欢迎讨论^^
: ※ 编辑: PosetMage (60.115.80.231 日本), 04/17/2023 14:11:30
: 推 cutearia: GA的问题一样是后期收敛时大部分染色体解都相同,不觉 04/25 00:04
: → cutearia: 得效果会比类神经网络好。怎么把你说的strategy space 04/25 00:04
: → cutearia: 大小转换成reward/fitness来训练可能会有比较直接的效 04/25 00:04
: → cutearia: 果 04/25 00:04
GA 的本质不脱上一代 AI 的搜寻方式,我是不会期待它比起深度学习有普遍性
的更佳表现啦。GA 最大的缺点基本还是在于并没有尝试整合 pattern,在学习规模
相同的情况下,想训练出并储存等量且差异性的学习结果会比深度学习 Cost 更高。

Links booklink

Contact Us: admin [ a t ] ucptt.com