[问题] 类神经网络的反向传播与逻辑回归

楼主: st1009 (前端攻城师)   2017-08-27 22:09:54
不好意思,想请请教各位大大,
我看一般训练类神经网络都是使用反向传播算法(Backpropagation),
可是我看类神经网络(ANN)与逻辑回归式(Logistic regression)高度相似,
甚至有些人说,逻辑回归式叠加就是类神经网络!
所以我在想,是否我可以用多层的逻辑回归式,来建立深度学习?
并且逻辑回归式权重虽然可以用BP求得,
但是其实也可以直接根据输入来算吧?
而且感觉直接以逻辑回归式本身计算方法算出权重,应该会比BP更快?
可是我似乎都没看到有人这样用,是会有什么问题嘛?
有相关的论文资料嘛?
作者: andrenvq57 (喂!威,喂?)   2017-08-28 08:36:00
ㄜ 可以定义多层吗
作者: singlovesong (~"~)   2017-08-29 12:27:00
是一样的东西 就是多参数求导 BP 只是 chain rule
作者: jackace (inevitable......)   2017-09-13 21:06:00
DN不只是Sigmoid 公式解能用的场合太少 maxpooling, BN,还有RNN 都没公式解

Links booklink

Contact Us: admin [ a t ] ucptt.com