[问卦] 如何评价deep learning自带regularizatio

楼主: obovOGC (彦州彦州,日时撸撸)   2018-03-24 16:16:46
如题
即使neural network capacity很大,
甚至大到足以硬记training data答案时
deep learning仍不容易overfitting
除非你参数乱设
就好像deep learning自带regularization 一样
magic!!
究竟是为什么?
有没有八卦?
作者: DavidWuuu (Failester)   2018-03-24 16:17:00
供三小啦
作者: iPolo3 (艾POLO衫)   2018-03-24 16:18:00
Fuck in the ass great time
作者: ilovedandan (我爱丹丹 天天丹丹)   2018-03-24 16:18:00
I觉得your英文ability真的很great you怎么study的?
作者: p00o99o (YA!)   2018-03-24 16:18:00
model搞这么大干洨
作者: lai526 (野孩子)   2018-03-24 16:18:00
这边讲 deep learning有几个听的懂XD
作者: tim9527 (是个肥宅)   2018-03-24 16:19:00
机器学习啦
作者: hipab (嗨趴)   2018-03-24 16:19:00
may show gun mo?
作者: gfhnrtjpoiuy (against all odds)   2018-03-24 16:19:00
Say 三小
作者: tsoahans (ㄎㄎ)   2018-03-24 16:20:00
没有 没加dropout还是很容易overfit
作者: opqr9988 (等吧QQ)   2018-03-24 16:25:00
因为opiuftzation会tinofy,所以equbize要retabe
作者: jaid (jaid)   2018-03-24 16:26:00
滚去知乎
作者: ilovetaylor (taylor)   2018-03-24 16:26:00
这是minasann很容易lost掉的一个mistake确定anada有check几次再try过比较おけ
作者: everettofu (液化豆腐)   2018-03-24 16:34:00
楼上XD
作者: gaowei16 (啾啾人)   2018-03-24 16:36:00
model这么复杂干嘛啦乖乖跑gd
作者: deatheo (逆十字)   2018-03-24 16:46:00
Xgboost
作者: nicks0904 (James)   2018-03-24 16:50:00
你这个model只能说没用处
作者: Luluemiko (露露)   2018-03-24 17:03:00
xgb lgbm凑合凑合即可
作者: muchu1983 (贝努)   2018-03-24 17:19:00
如果 JYO-SHI KOU-SEI 表现出ejaculation 的结果,就代表你的 APM 已经很不错了
作者: needmmmoney   2018-03-24 17:34:00
讲人话啦 干

Links booklink

Contact Us: admin [ a t ] ucptt.com