Re: [鲁蛇] 从AI训练思维来看游戏平衡这件事

楼主: PosetMage (AI魔法师公会长老)   2023-05-26 00:30:25
※ 引述《ddavid (谎言接线生)》之铭言:
: 你先思考一下,MTG 或 RTS 做完他所谓的平衡后,游戏有平衡了吗?
: 没有,他们做到的平衡只到避免极少数套路屠杀为止,只要环境可以保有多种策
: 略就好,但所谓的“多种策略”事实上相对于整个游戏的元素仍然是少数垄断。
: 例如 MTG 的赛场上仍然是特定几副套牌的垄断,但只要没有极端到只剩下一两
: 种套牌可以存活、没有极端到某张除了地牌以外的牌是所有套牌都得放的情况,WotC
: 就不会再进一步动手封禁了。
: LoL 角色那么多,做得到角色平衡吗?没有,他们的做法是轮流让角色(特别是
: 好卖钱的新角色)出来透气,实际上仍然有差距极大的强势弱势角色之分,但只要做
: 到赛场上不会只剩下唯一选择就已经可以接受了。甚至有时还真的有超强的唯一选择
: ,但他们还额外设置了 ban角制度来解决。
这个就是在说明目前人工平衡很烂 所以我才要讨论用AI来尝试平衡
: GTO 是不是奠基于决策展开计算的?AlphaGo 不用展开决策树?不管是 GTO 或
: 是剥削策略都是奠基于决策展开计算出来的机率期望值,会把机率跟决策分开认为是
: 两件事,很显然我觉得你要对现代 AI 跟打德扑都重新了解一下。这根本就是相关的
: 事情。
GTO在打的是范围 也就盲注翻牌转牌河牌 算Nash均衡
决策树不是GTO策略本身 那只是辅助人类看的视觉化工具
你决策树展开是要展荷官手上还没打开的那一叠牌吗? GTO跟决策树无关自己去了解
: 我已经说了没人这么做就是因为价值很低:
价值低跟好不好是两回事 alphago出来之前也是一堆人说AI下棋没价值
实际上就是AI出来之后屌虐人类策略
: 1. 可能游戏根本不需要那么平衡,甚至有的游戏本来就是需要有一点动态的不平衡
: 变化来维持。
: 例如,LoL 的新英雄强势期。
: 2. 你在做决策训练的过程中,事实上大多数情况可以同时处理到平衡问题。
: 例如,围棋 AI 从头到尾都只是训练最佳化下棋的策略,但借由其结果,却也同
: 时得到人类对局确实以黑贴六目半是当前最平衡的选择(虽然白略优)。
: 因为以上两个主要理由,几乎足以涵盖大多数案例,所以相对少有公司直接投资
: 在直接用 AI 做平衡上。当然学术上往这个方向做也没什么问题,但要做到分析平衡
: 能远比用 2 顺便处理到还成本低廉,然后该产品又非常需要这么平衡的用例是真的
: 不多。
: 所以你要说我打模糊仗,那也可以,因为整个业界都在打这个模糊仗XD
: 不过我是从根本上想质疑你所谓“找发散”这种概念啦,我很鼓励你做个 toy
: project 来展示一下所谓 找发散 => 做平衡 的因果,不然恕我想像不到你的思路
: XD。我甚至对于你“找发散”的数学模型都非常好奇,请务必指教一下。
: GA 的本质不脱上一代 AI 的搜寻方式,我是不会期待它比起深度学习有普遍性
: 的更佳表现啦。GA 最大的缺点基本还是在于并没有尝试整合 pattern,在学习规模
: 相同的情况下,想训练出并储存等量且差异性的学习结果会比深度学习 Cost 更高。
就如同我前面说的 阿法狗出来之前说AI下棋没价值
狗出来之后人类换说不完全讯息AI不会做 扑克打下来之后人类换说AI不会绘画音乐
最近听到的是AI写程式没价值 这种话听太多了 这个不行那个也不行话人人都会讲
用什么方式完成我都可以接受 反正人类就是做不好
我在说的只是尝试于找到一条可以用AI做平衡的理论推演
你能提出另一个用AI做平衡的方式我也欢迎
作者: LayerZ (無法如願)   2023-05-26 02:57:00
抱歉忍不住
作者: WJAider (Aider)   2023-05-26 03:00:00
反过来说,AI 这个也可以,AI 那个也可以的话人人都会讲
作者: LayerZ (無法如願)   2023-05-26 03:02:00
不打算抨击你,但是你想讨论的不是平衡而是AI至上
作者: ddavid (谎言接线生)   2023-05-26 12:39:00
讲半天还是没看到数学模型或至少 cost 分析,我还是等有至少 toy project 成果再讨论比较实际讲 AI 至上论我其实没啥问题,问题大的地方在找解本来就也是 AI,有什么理论基础说找平衡 AI 表现就会比较优秀,也没看到特别是还提出什么找发散,这根本与现今所有主流 AI 概念都是相反的,不管找解找异质找多样性,现今 AI 始终是用收敛方式,找发散的数学模型到底长怎样我是真的愿闻其详而且讲来讲去居然丢一个 GA 出来,明明 GA 正是上一代 AI里面找收敛解的经典之一(不是因为它同时找多组就叫做找发散了),到底怎么冒出找发散概念的要是提个 GAN 还比较有谱,虽然跟找发散还是八竿子打不在一起另外没价值那段根本是你把话塞别人嘴里,事实始终是做得不够强就没价值,强了当然有价值。那要强需要什么,有理论基础、有实作成果、有重现性。而不是随便来个思考转弯就叫做有价值,游戏界最不缺的就是点子。
作者: wangm4a1 (水兵)   2023-05-30 13:52:00
BZ例子重点不在平衡 而是被砍的玩家不高兴发文造成玩家不满 可以求助AI改善语气
作者: ddavid (谎言接线生)   2023-05-31 19:09:00
我真的觉得你要好好重新思考一下你口中的找发散到底是什么东西……GA 用于找收敛,不代表把参数反向操作就会“找发散”,说到头来你所谓找发散到底数学模型是什么东西?你让结果发散那停止条件是什么?你怎么证明你所谓的发散结果比随机更发散或更平衡?要是连个 objective function 都写不出来,那你已经是在开创非现行机器学习的新领域了,恭喜你成为先驱并期待你的实作与应用还拿爱因斯坦来比,理论物理学家虽然不一定做实验证明,但是会提出严谨的理论模型,而且根据那个模型计算的结果还要能够不违反过去所有的相关实验结果好吗?
作者: WJAider (Aider)   2023-05-31 20:33:00
有脸拿爱因斯坦跟自己抬杠比,相对论是论坛聊出来的?先理解论坛抬杠跟论文的差距再找比喻比较好
作者: ddavid (谎言接线生)   2023-06-02 19:11:00
无视停止条件,我很难相信你在做 AI 耶XD你可以回去复习一下你自己提的 GA 一样需要 Stopping Conditions,不然它怎么判断演化足够好可以给你结果了至于 AlphaGo 为什么还有机会持续训练提升实力,原因也很简单,你可以先猜看看。但即便是这样,AlphaGo 还是要收敛出 李世石版、Master版以及 AlphaZero 这些特定版本。理由也很浅显易懂XD

Links booklink

Contact Us: admin [ a t ] ucptt.com