[问题] 如果要用Deep learning训练Boss

楼主: attacksoil (击壤)   2022-03-12 12:10:48
该怎么做比较实际?
想像中:
1. 先让AI跟rule-based AI对战N场
2. 再让AI跟高手玩家对战N场
3. 自己跟自己打N场
所以实际上会怎么做?
作者: none049 (没有人)   2022-03-12 12:12:00
你的N设多大?"哪个比较好"的答案会不一样欸
作者: pgame3 (G8goat)   2022-03-12 12:12:00
玩家应该要排在3?或2/3交替执行?(不懂乱猜
作者: as80110680   2022-03-12 12:13:00
alpha go都做过了,最后3训练出来的最强
作者: nenohelios (neno)   2022-03-12 12:15:00
做boss AI跟仿玩家AI炼蛊
作者: MoodyBlues (国军最菜的基层军官)   2022-03-12 12:21:00
直接3 暴力靠数量解 你跟玩家对战速度太慢
作者: arrenwu (键盘的战鬼)   2022-03-12 12:22:00
Reinforcement Learning
作者: spfy (spfy)   2022-03-12 12:23:00
BOSS是给人打的 不是给ai打的 不需要ㄅ
作者: CactusFlower (仙人掌花)   2022-03-12 12:27:00
半个小时内两篇一样主题的文章是怎样
作者: Creeperforev (苦力怕怕)   2022-03-12 12:37:00
刃牙:这就是共时性
作者: chejps3105 (氋氃)   2022-03-12 12:43:00
游戏不同3不一定会比较好,我记得之前alpha go团队说过星海用这招训练会得到一个很诡异很烂的快攻战术互打
作者: shigurew (shigure)   2022-03-12 12:50:00
陷入一个区域解好像很正常,DL没有很完美
作者: rhox (天生反骨)   2022-03-12 13:05:00
很强然后不好玩有意义吗?
作者: specialcook (\选我/ \选我/ \选我/)   2022-03-12 13:11:00
一定会被弄坏w
作者: Kazimir (Kazimir)   2022-03-12 15:06:00
我认为可以从已有的其他游戏boss和相似现实生物动作出发
作者: pionlang5566 (pion)   2022-03-12 15:07:00
感觉就很消耗显卡资源
作者: Kazimir (Kazimir)   2022-03-12 15:07:00
再迁移到需要的特定boss上 比起难度更有意思的其实是利用dnn改进boss的动作多样性和流畅吧
作者: a1919979 (狐狸精婊子)   2022-03-12 15:36:00
1 然后2/3交互吧 3效率高 但只靠3可能会走歪
作者: kirito1219 (香蕉巧克力)   2022-03-12 15:42:00
应该是RL吧

Links booklink

Contact Us: admin [ a t ] ucptt.com