Re: [爆卦] 脸书机器人自创语言事件的实验

楼主: legendsleep (时渡)   2017-08-03 15:02:17
看完你这篇我突然想到台湾好像也曾经有出现过这么一个模型
但是大家都把它当真人看
他就是bluwoo
当时一堆乡民去分析他的思考逻辑跟言行举止
现在来看是不是他根本就是有人编写的程式?
有挂?
※ 引述《daviden (daviden)》之铭言:
: 最近看到这个新闻觉得满好笑的,
: 刚好手边有一个写文章机器人的project,
: 就拿来实验给大家看看。
: 这些是训练神经网络时的纪录点(checkpoint),
: http://i.imgur.com/vu0gLXh.png
: 我挑一个比较不成熟的(loss高的)来展示。
: http://i.imgur.com/7HTnZeu.png
: 基本上就是不段重复:"a core"这个序列。
: 这是完成第一个循环(epoch = 0),loss = 2.6727的情况
: 结果跟Facebook机器人的对话很像
: 就重复一些简单的单字,毫无意义。
: 其实Recurrent Neural Network(RNN)做出这种结果是很常见的
: 在国外data scientist的部落格中,也有类似的例子。
: https://goo.gl/WlUdcW
: 这篇文章里,以小架构的RNN,用整本爱丽丝梦游仙境小说作训练,
: 做出来的文字是这样:
: "sabdit,
: and the white rabbit wese tilel an the caoe and the sabbit se teeteer,
: and the white rabbit wese tilel an the cade in a lonk tfne the sabdi
: ano aroing to tea the was sf teet whitg the was a little tane oo thete"
: 我只节录其中一段。
: 可以看到有一整句话是完全重复的,
: "and the white rabbit wese tilel an the"
: 整篇output看来,也有很多重复出现的序列。
: (该文章的作者后来用更大的神经网络、训练更久,也达到很好的效果)
: 做神经网络时,出现难以预测的结果是很常见的。
: 大多数时候,这并不是什么"发明",只是模型对训练集的掌握不好。
: 问题可能来自训练资料、神经网络的架构、optimizer,等等...很难讲。
: 在我的project里,当神经网络训练更完全(epoch = 17, loss = 1.1391),
: 可以产生这样的文字标题:
: "lpt: if you are srarting a shopt for the ooen that you
: don't have to contact the top of your phonee ."
: "lpt: when seniing someone s hood to you don't want to
: het it to youu fbori eorr tthienkty."
: "lpt: if you are srarting a store in your car with a
: complate bard before a bustom rings on your phoone."
: 这和先前重复"a core a core"的模型是同一个,但现在已经可以讲英文了。
: 这就只是训练充足与不充足的差别。
作者: XXXXSHIT (给我八千元 我给你五颗星)   2016-08-03 15:02:00
作者: cc02040326 (茶包)   2016-08-03 15:02:00
没有 滚!!钱
作者: Granatha (Granatha)   2017-08-03 15:04:00
管妈下令召回
作者: YaLingYin (泠)   2017-08-03 15:04:00
钱!
作者: silverwu (魔性男子)   2017-08-03 15:05:00
我他妈是谁?帅哥?钱!
作者: Dhack5321 (阿角)   2017-08-03 15:05:00
签名档是什么鬼啦

Links booklink

Contact Us: admin [ a t ] ucptt.com