[问题] 如何以深度学习完成客制化傲娇?

楼主: zxcmoney (修司)   2019-10-22 15:45:28
假设我想训练AI完成一个客制化傲娇性格反应
其流程大致如下
1.确认好一个目标 (玩家)
2.确认好所需参数,给予不同参数权重。
何时傲? 何时娇? 等时机判断。
3.导入数据
4.调整数据
有些数据最终能提高玩家的好感,有些则否,
借此过程AI会调整参数权重,影响好感的提高,不影响的就会调低。
5.最终AI慢慢试错学习不同的权重组合,找到最终能得到最高好感的比例。
甚至这个比例会是动态,会随着玩家偏好改变持续调整。
问题在于
1.傲娇模型的建立
一个理想的傲娇模型,除了傲.娇之类拢统的概念外,
还需要参数与权重,但到底有哪些需要参数?
这需要专家的意见。
2.回馈的取得
不同于游戏分数可以直接取得,玩家好感也是模糊的资讯,
如何取的玩家的最终好感?
对此板友是否能提供一些意见?
作者: soulgem (あたしって、ほんとバカ)   2019-10-22 15:47:00
(先能定义好傲跟娇是什么再来谈)
作者: roywow (BeeeeeZ)   2019-10-22 15:48:00
UBS孔就是啊 不插他3次都不给进去
作者: bbb654123 (ridiculus)   2019-10-22 15:50:00
二次元参数凑出来的二次元老婆 用现成的二次元就好了reinforcement learning 参考一下你也要有那个电脑去跑那个参数 你的资讯量太大了
作者: ckniening (☞罂粟小子☜)   2019-10-22 15:51:00
?_?
作者: Wardyal (Wardyal)   2019-10-22 15:57:00
假如你订好reward说不定真的可以靠reinforcement跑出一个理想中的傲娇
作者: jonathan793 (pusheen cat)   2019-10-22 15:57:00
你这个要作应该要弄成推荐系统 每个人对同个角色好感度不同
作者: bbb654123 (ridiculus)   2019-10-22 16:03:00
回楼上 如果是楼主开发只会有楼主觉得是傲娇类的参考资料,到头来都是生出资料来源的傲娇而已,给自订也差不多
作者: Ericz7000 (Ericz7000nolan)   2019-10-22 16:03:00
正要说RL
作者: OldYuanshen (聊斋异说)   2019-10-22 16:13:00
重点是脸吧
作者: king498c (白猿君)   2019-10-22 17:32:00
楼上你说到重点了
作者: mistel (Mistel)   2019-10-22 18:21:00
不 重点是接口吧 你能想像只有终端的傲娇吗?

Links booklink

Contact Us: admin [ a t ] ucptt.com