※ 引述《ddavid (谎言接线生)》之铭言:
: 你先思考一下,MTG 或 RTS 做完他所谓的平衡后,游戏有平衡了吗?
: 没有,他们做到的平衡只到避免极少数套路屠杀为止,只要环境可以保有多种策
: 略就好,但所谓的“多种策略”事实上相对于整个游戏的元素仍然是少数垄断。
: 例如 MTG 的赛场上仍然是特定几副套牌的垄断,但只要没有极端到只剩下一两
: 种套牌可以存活、没有极端到某张除了地牌以外的牌是所有套牌都得放的情况,WotC
: 就不会再进一步动手封禁了。
: LoL 角色那么多,做得到角色平衡吗?没有,他们的做法是轮流让角色(特别是
: 好卖钱的新角色)出来透气,实际上仍然有差距极大的强势弱势角色之分,但只要做
: 到赛场上不会只剩下唯一选择就已经可以接受了。甚至有时还真的有超强的唯一选择
: ,但他们还额外设置了 ban角制度来解决。
这个就是在说明目前人工平衡很烂 所以我才要讨论用AI来尝试平衡
: GTO 是不是奠基于决策展开计算的?AlphaGo 不用展开决策树?不管是 GTO 或
: 是剥削策略都是奠基于决策展开计算出来的机率期望值,会把机率跟决策分开认为是
: 两件事,很显然我觉得你要对现代 AI 跟打德扑都重新了解一下。这根本就是相关的
: 事情。
GTO在打的是范围 也就盲注翻牌转牌河牌 算Nash均衡
决策树不是GTO策略本身 那只是辅助人类看的视觉化工具
你决策树展开是要展荷官手上还没打开的那一叠牌吗? GTO跟决策树无关自己去了解
: 我已经说了没人这么做就是因为价值很低:
价值低跟好不好是两回事 alphago出来之前也是一堆人说AI下棋没价值
实际上就是AI出来之后屌虐人类策略
: 1. 可能游戏根本不需要那么平衡,甚至有的游戏本来就是需要有一点动态的不平衡
: 变化来维持。
: 例如,LoL 的新英雄强势期。
: 2. 你在做决策训练的过程中,事实上大多数情况可以同时处理到平衡问题。
: 例如,围棋 AI 从头到尾都只是训练最佳化下棋的策略,但借由其结果,却也同
: 时得到人类对局确实以黑贴六目半是当前最平衡的选择(虽然白略优)。
: 因为以上两个主要理由,几乎足以涵盖大多数案例,所以相对少有公司直接投资
: 在直接用 AI 做平衡上。当然学术上往这个方向做也没什么问题,但要做到分析平衡
: 能远比用 2 顺便处理到还成本低廉,然后该产品又非常需要这么平衡的用例是真的
: 不多。
: 所以你要说我打模糊仗,那也可以,因为整个业界都在打这个模糊仗XD
: 不过我是从根本上想质疑你所谓“找发散”这种概念啦,我很鼓励你做个 toy
: project 来展示一下所谓 找发散 => 做平衡 的因果,不然恕我想像不到你的思路
: XD。我甚至对于你“找发散”的数学模型都非常好奇,请务必指教一下。
: GA 的本质不脱上一代 AI 的搜寻方式,我是不会期待它比起深度学习有普遍性
: 的更佳表现啦。GA 最大的缺点基本还是在于并没有尝试整合 pattern,在学习规模
: 相同的情况下,想训练出并储存等量且差异性的学习结果会比深度学习 Cost 更高。
就如同我前面说的 阿法狗出来之前说AI下棋没价值
狗出来之后人类换说不完全讯息AI不会做 扑克打下来之后人类换说AI不会绘画音乐
最近听到的是AI写程式没价值 这种话听太多了 这个不行那个也不行话人人都会讲
用什么方式完成我都可以接受 反正人类就是做不好
我在说的只是尝试于找到一条可以用AI做平衡的理论推演
你能提出另一个用AI做平衡的方式我也欢迎