※ 引述《joezzzzz (MeteoraSoul)》之铭言:
: ※ 引述《NewSpec (新规格)》之铭言:
: : Musk讲的不是真的人工智能领域的那个A.I.
: : 那根本就是垃圾, 一群学者自high的玩意儿
: : 他指的应该是包含孔祥重、吴恩达现在在搞的deep learning领域
: : deep learning可以说是机器学习的圣杯
: : 基本上就是以clustering为基础, 模仿生物构成知识与认知的过程
: : 这个观念与过去的三洨人工智能或机器学习观念大相迳庭
: : 但效果却是出奇的好!
: : 例如吴恩达在前几年有说过他们成功在不给予先备知识的状况下让电脑认得了猫
: : 但他没说其实最近几年他让电脑自己能认得了更多东西...
: : 简单来说, 如果deep learning持续发展, 那透过deep learning, 还有够多资料
: : 电脑真的能判断出某问题 "最正确的解答"
: : 换言之, 如果我们今天给一台有这种功能的电脑足够多的知识, 足够多的权限
: : 然后请它做 "对台湾最好的事"
: : 它很可能隔天就把马江魏全部宰了....= ="""
: 以讹传讹真的很恐怖~
: 小弟不才正在做Deep learning相关研究~
: 2006这几篇~
: Hinton, G. E et al.
: Reducing the dimensionality of data with neural networks. Science 2006
: 以及Yoshuaengio et al.
: Greedy Layer-Wise Training of Deep Networks. NIPS 2006
: 简单来说autoencoder逐层训练的方式并且利用unlabel的资料解决了Neural Network的
: 随机初始化以及local optima的问题~事实上顶层还是需要supervised的训练方式去告诉
: 他要什么~
: 2012之前已经很成功的用在语音辨识还有手写辨识(mnist),之前microsoft在天津有一段
: 演讲( http://ppt.cc/jWHj ),他能快速直接英翻中其中很重要的技术也是deep learning~
: Andrew Ng本名吴恩达他是stanford的副教授,也是之前google brain中的重要成员之一
: 不过他现在被hire到百度了~
: Machine Learning and AI via Brain simulations http://ppt.cc/kW2w
: 这个演讲说明了他们在2007到2012之间所做deep learning的相关研究~
: Le, et al.,
: Building high-level features using large-scale unsupervised learning. ICML 2012
: 我想原PO应该是说这篇论文吧~
: 他是用10 million 200X200 的unlabeled影像(从youtube中)去训练~ 目的是找出
: high-level features使得我们能使用这些feature去帮助我们认图片~
: 因为在learing based的影像分类中对于要使用什么样的feature当成分类的依据常常是
: 重要的课题~
: 所以他们发现在unsupervised的情况下Optimal stimulus有出现人脸及猫脸这只是意味着
: 这类型的feature能在大量影像中被发现~因为影片的资料来源中可能有相当多这类型的资
: 料~对于原PO所说有大量资料就能找出这种non trivial的答案这根本天方夜谭~顶多拿来
: 作regression这种能实数化或是预测比分,统计类型的资讯~ML跟真正AI还差很远~
: 在computer vision的重要贡献还是1981 Nobel Prize Medicine,Hubel跟Wiesel发现
: Visual cortex有着hierarchical的结构,在我们visualize类神经网络中发现有同样的
: 结构使得现在deep learning能够这么样的红~
: 要上课了先打到这边~
: http://ppt.cc/-BtE
: 这是stanford关于他们研究所做的Tutorial有兴趣可以看看~
有人想知道相关研究我就顺便把它补完~
不知道po在这边是否恰当,如果不行我自删~
关于Hubel-Wiesel Model先看这个图~
http://ppt.cc/JewF
Hubel与Wiesel发现以hierarchy的方式在不同层成像,意思是说我们将接收到的影像资讯,
大脑首先会将资讯自动侦测哪些是edge,再经由下一层将这些资讯作group形成某些形状特
征,最后才是物件或是人脸等的~当初Neural Network最为人诟病的是我们调这些参数是
trial and error所以它内部运作是个黑盒子,我们只能由结果好坏来判定这些参数是不是
我们要的,现在我们能就由visualize的方式(详细数学在paper中有推导),来观察我们模拟
的NN是不是跟大脑一样~
http://ppt.cc/ARnb
不过以2014的研究来说,物件辨识比较成功的是Convolutional Neural Network简称CNN~
比较不同的是他完全是属于supervised的学习方式~
关于各种不同ML的方式可以参照下图
http://ppt.cc/odCi
首先先谈谈ImageNet这个数据库,它包含20,000 categories和16,000,000 images
里面有各种很复杂的物件像是Stingray和Mantaray这种~
http://ppt.cc/H~1F
这是今年对于这个数据库的研究,每年的error rate正以不可思议的方式下降~
http://techtalks.tv/talks/lecture/59459/
这是NYU LeCun(CNN的发明者)展示目前他们做的即时侦测以及online learing的结果
我上述的这些人目前都以高薪被hire到Google,Facebook,MS,百度等大公司,也有报导在探
讨这些公司垄断这些研究人才究竟对我们未来有什么影响~
未来10~20年是ML的天下已经在学校以及这些学者的seminar或conference中不只听到一次~
至于要到AI的程度我想还有一段路要走~