[问题] keras实作RNN

楼主: bokxko1023 (bokxko1023)   2017-08-31 12:58:46
大家好,
我在用keras做LSTM时有个疑问,为何看网络上的范例,大家都会直接model.add(LSTM)呢
?前面不是还有一个input hidden layer吗?是因为纯粹没有要加这个层,还是说keras
已经把输入隐藏层一起包在lstm 里面了?谢谢!
顺便请问一下,有没有推荐值得研究学习的keras或tensorflow的code实作范例呢?
作者: tsoahans (ㄎㄎ)   2017-08-31 13:12:00
input可以塞在任何layer吧 加上input_shape参数就行但第二层以后就不用加 因为它可以从上一层output推出先看keras文件或keras github上的example
作者: steveyeh987 (微风步伐)   2017-08-31 15:23:00
有些会用input layer, 有些则是在LSTM那层定义inputshape
楼主: bokxko1023 (bokxko1023)   2017-08-31 17:07:00
我指的隐藏层是当数据输入时会先经过一个隐藏层的计算,才进到lstm
作者: pups003 (冈本)   2017-08-31 19:21:00
example

Links booklink

Contact Us: admin [ a t ] ucptt.com