[请益] deep learning怎么学习?

楼主: beaprayguy (小羊快跑啊)   2017-07-29 18:33:28
最近被deepmind的AI震惊
AI最核心部分是deep learning
阅读文献得知,deep learning
是透过artificial neural network
透过一层一层neuron堆叠,得到一个output
目前解决方法是找到gradient descent
或者现今有比他更好的方式?
透过和标准答案的loss,取得最低点。
但过多层可能导致Vanishing Gradient
都是最低点,可能要透过调整达成
若想自学要从哪一方面进入,若相关职缺基础门槛是什么。
今年30岁,想做一个人工智能梦。
请问有可能的挂吗
作者: Kazimir (Kazimir)   2017-07-29 18:42:00
如果你英文还可以的话 MOOC有不少CS231n很有名 不过我还没看过所以不太确定对初学者好不好
作者: cybermeow (我有一只猫)   2017-07-29 19:11:00
拿个现成的framework来用小学生也会写deep learning
作者: NCUking (中大王)   2017-07-29 19:13:00
当兴趣可以 但要当职业就非常难了
作者: abc0922001 (中士abc)   2017-07-29 19:21:00
作者: kyodaisuki (↖☆煞气a_Kyou★↘)   2017-07-29 19:28:00
reinforcement learning
作者: MonkeyCL (猴总召)   2017-07-29 19:37:00
人机大战的时候,围棋板很多人在教深度学习
作者: kingrobber (Gosh)   2017-07-29 19:50:00
没有数学底子都只能在表面绕我看了三门MOOC之后的感想
作者: ckp4131025 (ckp4131025)   2017-07-29 20:08:00
要自己弄model 数学要不错ML AI DL有很多线上课程
作者: Morphee (千磨万击还坚劲)   2017-07-29 20:10:00
就学深一点阿 你之前学的太浅了
作者: dddddd67 (断水流大师兄)   2017-07-29 20:20:00
博士班签下去啊
作者: TERRYB (白夜行)   2017-07-29 20:27:00
真的,资工到后面就是都在算数学....
作者: ice80712 (我很有事)   2017-07-29 20:27:00
网络上很多Sample code可以先玩一玩
作者: askia (过客)   2017-07-29 20:42:00
先问问自己几个问题:你数学强吗?有兴趣吗?再考虑要不要学。要学表面很快就能上手,要玩深入很难如果你只是跟风的话,等你学会热潮大概也过了
作者: Murasaki0110 (麦当劳欢乐送)   2017-07-29 20:46:00
数学先弄好
作者: vu04y94 (今)   2017-07-29 20:48:00
本小弟我以前也觉得dl很潮 后来发现玩DL用套件国中生都会甚至比学C++简单 如果要深入还是数学要好 CS到最后精华还是在数学我认为随着越来越多非本科的投入 像一些数学背景的大师应该能有更惊人的成长
作者: eva19452002 (^^)   2017-07-29 21:06:00
电脑界的大师们同时都有另一个称号就是数学家
作者: Sunal (SSSSSSSSSSSSSSSSSSSSSSS)   2017-07-29 21:43:00
纯数的领域其实很虚无飘渺的..其他领域都只能摸点边
作者: Ommm5566 (56天團)   2017-07-29 22:32:00
是要问几次 去youtube林轩田
作者: Mchord (Mchord)   2017-07-29 22:47:00
英文写作很重要,DL paper特色之一就是唬烂
作者: paul800526 (大蝌蚪)   2017-07-29 23:27:00
把网络上一堆资料丢到你的脑袋里面training,如果你学不会,这就代表你的model建坏了,也就是说,你的neuron不够多,你就知道你不适合了,因为你train坏的问题是先天的
作者: cybermeow (我有一只猫)   2017-07-29 23:57:00
认真说 DL的paper很多不会DL也看的懂 数学不好没关系反正结构改一改有不同的构想也能做出新东西 背后数学的理论我觉得主要是stat跟proba (至少ml整体是这样)然后那些东西感觉主修数学唸到硕博士大概都不一定够了
作者: hsnuyi (羊咩咩~)   2017-07-30 00:23:00
套一句某数学大师的话 懂基础的实分析就可以做研究了 要是要搞懂过去某个领域用过的所有数学才能开始 那当代人就不用创新了
作者: f496328mm (为什么会流泪)   2017-07-30 00:38:00
楼上这样讲还不错 真的要搞懂 数学系也很多都不懂我们站在巨人的肩膀上就好了keras 也是设计的平易近人先有实作经验 久了就会主动去了解背后的原理
作者: Telemio (Telemio)   2017-07-30 00:47:00
我也觉得楼上有些人夸大 DL现在这么火红其实也是站在巨人的肩膀上吧 说数学要多神也还好吧? 很多paper也都着重理论创新 但还是比较强调实验吧
作者: hsnuyi (羊咩咩~)   2017-07-30 01:10:00
我是说有一定的基础 就可以开始研究...
作者: Kazimir (Kazimir)   2017-07-30 02:53:00
我真的觉得DL的数学没有那么多&难 除非你的目标就是数学举GANs当例子,如果你打算从数学的角度搞清楚为什么那会很复杂 到目前为止应该还没有真的搞清楚 只有定性可是实际上的操作就只是用D多产生一个loss给G而已其他比较多数学的部分是找更好的loss & 找更多正规化手段
作者: stitchris (史迪奇里斯)   2017-07-30 03:17:00
XXXXXXXXD 推paul
作者: Morphee (千磨万击还坚劲)   2017-07-30 03:19:00
不念到实分析是不够资格做DL的
作者: steve1012 (steve)   2017-07-30 08:21:00
其实一堆人跳下去前都没修过实分析啊xD
作者: johnny94 (32767)   2017-07-30 12:31:00
基本上认识真正懂DL 没有一个人强调数学要多好才可以研究的,大概只要有大一的微积分就可以玩了
作者: zi62007 (Money)   2017-07-30 13:08:00
三楼说小学生可以玩,又有人说要微基分,好乱啊
作者: vu04y94 (今)   2017-07-30 14:12:00
我是以发paper的角度来看啦 做product当然是另一回事 我觉得那些人不强调数学要很好 是因为他们本身就很强 强到以为大家都会..不过就像上面说的 都是边做边学 不然永远追不上新的技术
作者: hsnuyi (羊咩咩~)   2017-07-30 16:20:00
正规化方法很多就是从多变量统计出来的 要乱try也可啊 只不过无法解释罢了 上面就看到几个数学很强的啊 整天挂在嘴上说数学不重要 是怕人抢出路喔 www看paper最难的 不是算法如何重现 而是数学看不懂 不知为啥要这样做
作者: wilson85771 (HOW)   2017-07-30 19:22:00
先把李宏毅老师的课程录影通通看懂吧
作者: Kazimir (Kazimir)   2017-07-30 20:51:00
一个领域有很多面向 没有做凝态先去学弦论的道理
作者: prag222 (prag)   2017-07-30 21:44:00
真的要有能力也要花好几年培养吧,培养出来也顶多在本地在本地又会哭台湾薪水,出去有跟不了别人菁英竞争 除非你很神~~~
作者: red0210 (My Name Is Red)   2017-07-30 21:45:00
有人可以举个几篇要实分析才看懂的 paper 吗?
作者: cybermeow (我有一只猫)   2017-07-30 22:18:00
http://www.cs.toronto.edu/~jmartens/docs/Deep_HessianFree.pdfhttps://www.cs.toronto.edu/~hinton/absps/fastnc.pdf这种应该算有些数学在里面的然后我自己也没有详细读不要来电我
作者: meteor260 (犀牛)   2017-07-31 17:11:00
玩跟有能力改进, 如何train出好model是两码子事啊玩确实小学生可以玩啊XD, 要弄到好现在很多领域都还要花时间追论文呢啥都不懂顶多就加更多层, 然后就Vanishing Gradient然后就两手一摊就是个知其然很容易, 知其所以然很难的领域
作者: BlackMatrix (BlackMatrix)   2017-07-31 22:04:00
Vanishing Gradient在目前一般常用的ReLU不会发生所以之前版上有个Kaggle冠军就是Vgg+一千层(?)Dense
作者: Murasaki0110 (麦当劳欢乐送)   2017-07-31 22:09:00
不会发生,那ResNet或今年CVPR的DenseNet是在做啥
作者: BlackMatrix (BlackMatrix)   2017-07-31 22:20:00
看了一下, 可以在GPU里面放更大的Model通过某种Weights/Bias SharingVanishing Gradient也不会发生就如同LSTM/GRU也不会发生Vanishing Gradient
作者: gachen (抠比)   2017-08-01 15:02:00
Cs231n非常不错,我各人很推荐。
作者: jimshadow (kkk)   2017-08-02 16:44:00
实分析是指高微吗?
作者: leoloveivy (cried)   2017-08-08 01:03:00
老实说适不适合就看你写程式会不会留参数 如果你很喜欢这些参数可以透过一些方法自动算出来 而不是再那tune那么我觉得这样特质很适合ml ai

Links booklink

Contact Us: admin [ a t ] ucptt.com