楼主:
RLAPH (西表山猫)
2025-02-24 14:45:43嗯呐
好奇问一下啊
大家都知道LOL这种游戏
如果给AI练习走位 大概会比非可还强
而AI一向是朝最佳解去学习的
但就好奇啊
如果给AI喂像是罗杰或是大开的操作
逼迫AI去学习非最佳解
会变什么样啊?
有人知道咪?
作者: ZielC (Ziel) 2025-02-24 14:47:00
input trash output trash
作者:
qd6590 (说好吃)
2025-02-24 14:48:00杰西没大
作者:
nahsnib (悟)
2025-02-24 14:48:00不如让他学习怎么跟聊天时室对线
作者:
arrenwu (键盘的战鬼)
2025-02-24 14:49:00脚本有需要用深度学习吗?
作者:
a43164910 (寺æ‰ä¼Šå…)
2025-02-24 14:49:00聊天室老妈祖坟会爆开
作者: ZielC (Ziel) 2025-02-24 14:49:00
不是说脏话,但以最佳化的观点去看就是上面的结论
作者:
lsd25968 (cookie)
2025-02-24 14:50:00你模型还是会算loss啊 所以还是会收敛
作者:
serding (累紧地们)
2025-02-24 14:52:00不如请AI玩动漫歌二选一
AlphaGO第一版就是这样,喂食了大量人类棋谱后来的结论就是人类围棋什么弱鸡,不喂食的版本更强不过弱鸡版AlphaGO还是能够4:1李世石
作者: ZielC (Ziel) 2025-02-24 14:53:00
然后完全最佳化,同时闪避+维持输出范围的情况,跟脚本应该要是相同的行动,只是原理变成你学习抓到那一frame输出移动指令要怎么下而已。脚本比较像是直接抓对面丢技能的事件
AlphaGO零号(不看人类棋谱)则在网络上匿名痛电所有职业棋手,60:0
作者:
zack867 (心里有佛看人便是佛)
2025-02-24 14:55:00像初版学人类alphago一样 强度比后来自己练的版本低吧?
人类围棋知识中有少数确实是弱鸡,一些小时候你下了会被老师钉在墙上的“臭棋”,现在可以换老师被钉在墙上不过大多数人类结论还是和AI一致,也没有多丢脸
用格斗来说,电脑比人类笨的地方在于能骗招,但是这种电脑都是事先写好了,所以能骗一次就是骗无数次,如果电脑本身会学习并改良,那我想不到人类要怎么赢你跳就623,你投就秒拆投,你做的任何动作电脑都能反应,做的都是错的,想想就有够牢
所以有的训练会把AI的反应时间限制成人类等级就是避免AI秒读招然后拆解 但实际上人类根本做不到
阿法狗:学你们人类棋谱不如自我学习人类喂AI现有招式不会让AI进化
作者:
ccpz (OoOoOo)
2025-02-24 15:07:00local optimal or global optimal
感觉就是对策略空间限制搜索范围之类的?就像对一个奖励函数加一个限制约束项
作者:
CYHyen (CYHyen)
2025-02-24 15:26:00反正AI现在游戏的结论就是全面爆杀人类,什么大局观、不完全资讯、细部操作。人类都是弱鸡
可能还是会很强 就像初代alphago就是喂了很多人类棋谱事实证明 没喂让他自己学比较强