楼主:
TheLee (大佛布鲁斯)
2019-06-23 10:05:52先说一下自己的背景:
1. 硕士的领域是image/video compression
长期(>10年)以来做的都是embedded Linux相关的工作
2. 对人工智能及deep learning相关的知识有很大的兴趣
工作之余也自学了一些(看了市面上的几本原文书)
目前对于基本的观念及操作应该知道一些:
downloading data, training data model, testing data model.
3. Computer vision 应该有一些基本的功
看了一些OpenCV的书, 操作过一些案例
一来因为不是computer science/engineering的本科
二来因为过去工作上完全没有机会用到以验证所学
自认为还有很多地方不足,
考虑到学校的课程安排应该会比较严谨些
因此想试着把学校的学习路程走一次...
不知道有没有人的硕/博士论文是跟AI/ deep learning相关的,
A. 能否建议一下, 哪些书(作者)是基本必读的?
B. 有考虑到台大去旁听课程, 能建议哪些课?
想利用下半年的时间全力(full-time)补足这个领域
人生的最后阶段不想再演了
想做有兴趣的事
先感谢各位帅哥美女的建议
祝大家都发大财
作者:
labbat (labbat)
2019-06-23 10:14:00好奇问motion compensation或慢速摄影应用 还有发展吗
作者:
jj0321 (JJ与你倒数唷)
2019-06-23 10:46:00Andrew NG、花书
....我觉得现在门槛很高.....然后吃学历也很高 就算是四大硕本科 也不一定十拿九稳吧 何况半年
Linux 给技职系统学生就可以做很好,快点换到障碍高的ML是对的。PRML 是很好的书。
作者:
ap954212 (death is like the wings)
2019-06-23 11:27:00Cs231n
作者: musie (Sirius) 2019-06-23 12:00:00
作者:
TWkobe (中华柯比)
2019-06-23 12:09:00Linux太简单??黑人问号
作者:
aas5566 (aas5566)
2019-06-23 12:51:00说技职就能懂linux是在开玩笑吗哈哈
李宏毅不太建议,VAE,GMM,EM不够深入或没教到。Probalistic Model 需要更强大数学背景,值得研究。但是常会被打败而沮丧
作者:
cool9203 (看我翘翘的)
2019-06-23 14:46:00推李鸿毅,我猜上面是说用linux不难,但想写出来就是很大的问题了QQ
作者: NTUCS5566 (给力点) 2019-06-23 15:51:00
tipsofwarren: Linux 给技职系统学生就可以做很好 ??
要看他背景啦,我类EE背景出来的转ML是0障碍但学linux或os相关就有比较高的门槛要跨
作者: bulc381 (__) 2019-06-23 16:18:00
吃不吃数学也跟领域有关 偏应用类的paper相对容易 反之像ICML一些重推导的paper就会用到在工科系课纲可能不会太注重的数学工具 例如Lp-space、"almost everywhere"的概念,Bayesian的工具例如sampling, variational inference在工学院的机率统计也不见得会碰到
李宏毅的确省略很多数学,但原因是那是一学期的冲深度学习的速成课程啊XD 那可以另外补,对我来说不构成不推荐的原因
作者: Kazimir (Kazimir) 2019-06-23 17:55:00
EDX现在有一门MIT新开的ML 刚开始而已 我正在上所以不知道好不好
作者:
sxy67230 (charlesgg)
2019-06-24 13:16:00sampling在工科消息评估还是蛮常用到的,小弟硕班是走HMM的研究,所以sampling 都还是要学,反倒是变分推理其实变分推理也是从EM拓展出来的。ML我自己从业那么久,我反而觉得他还是被框在shnnon的消息理论框架里面。
作者:
abc53 (abc)
2019-06-24 22:32:00李宏毅课上完 作业写一写 然后找有兴趣的paper实作
作者: coco123 (coco1217) 2019-06-24 23:38:00
感谢分享
作者:
sxy67230 (charlesgg)
2019-06-25 18:51:00李教授的课我自己是会看啦,毕竟这学期的课还是蛮优的,后面介绍很多新模型。毕竟工作以后,真的使用到的模型类型越来越窄,meta那章我自己之前真的了解的就siamese而已,看完教授的课才比较有机会认识几个比较新的模型。想做nlu的可以去看最新教授transformer、bert那章,不过教授应该也是碍于时间没有把bert讲得很完整,像bert随机mask,其实是想做denoise autoencoder,这个跟LM模型有承先启后的关系,要完整从elmo的脉络一直接下来,最后就是今年刚出来的transformer XL模型。
我个人觉得吃不吃数学真的很看你做哪一方面的耶,有些真的数学推导很多,有些真的没什么数学
作者:
DJWS (...)
2019-06-26 08:11:00google awesome deep learning
李宏毅和林轩田,搭配 kaggle 实际练习。基础有了就多看新的 paper 知道一些新的架构是怎样设计的,然后自己试着刻看看。