Re: [问卦] 人工智能/机器学习 现在来看真的很猛吗??

楼主: hn12404988 (Willy)   2017-05-10 07:43:30
※ 引述《soaping (捡肥皂ing)》之铭言:
: 小鲁是文组啦
: 现在看到一堆人在吹捧人工智能阿 机器学习阿
: 只是觉得很好奇为啥一堆非本科系 没写过code的人也可以出来吹捧?
: 看内容比较像是他们自己的想像
: 根本就是把威尔史密斯的机械公敌拿出来说嘴
: 就像是现在一堆人拿excel说他们在做big data一样
: 现实中有在做这领域的专家or研究生真的觉得这东西很猛吗?
: 有看人家写说 到现在model跑的过程中发生什么事情无法得知
: 会跑什么东西出来也不知道 就像是创造了一个自己也不了解的东西
: 版上神人极多
: 有比较贴近真实的研究现况吗?
不是这样,“机器学习”就是一个“以前技术换上新引擎”,很久以前就有了
会说出“不晓得机器在干嘛,无法得知”只是一个噱头用语,让自己作得东西好像很厉害
机器学习的目的,用简单的形容就是“找到一组有史以来最棒的参数”
找到的方法,很简单,非常大量的尝试和错误(数十万GPU小时以上)
所以正确讲法不是“不晓得机器在干嘛”,而是“不晓得这组参数好在哪”
因为参数的数目太多层,每一层又太多个参数
举例来说,想像一个网球选手,每挥一次拍,在这不到两秒的动作中
动作被切割成“千微毫秒”,每“千微毫秒”都分配一百个体育专家去研究
各自研究好后,上百万组的体育专家,把结果统整起来成原来的两秒,在挥一次拍
如果没比较好,没关系在重来一次,我们的资源足够为了一次挥拍进行上兆次“尝试”
经过好几天,上百上千张的GPU运算后,终于产出的有史以来最好一组“挥拍参数”
要这么多参数的原因很简单,因为要达到“有史以来最好”的这个目的
把参数的数目一直提高,例如很简单的一个“找到黑色物体”这个动作
不需要任何科学性的“假设验证”,手法只是很粗糙的提高层数和数目
你就有可能就可以获得显著的进步,一个很甜的糖果,所以有能力负担硬件资源的大公司
这领域让他门不用累死人的研究,就能做出超越以往“传统方法”的科学
这阵子国外的学术界就在呼吁,是否要把硬件资源“公开化”
因为现在提出“又找到新的试参数玩法”的论文,有很多都是来自大公司的“数十万GPU小时论文”
这让传统学术圈或是学校,没有这种硬件资源去作到
归功于GPU的平行运算框架的普及(例如CUDA),这个以前乏人问津的旧技术
现在利用“天文次数的尝试和错误”正在延伸到各个领域“解决问题,并作到有史以来最好”
例如:医学,电脑视觉,自动驾驶,文本,翻译,法律,行为预测,气候预测...等等
作者: arrenwu (键盘的战鬼)   2017-05-10 07:46:00
你这篇讲的其实是 DeepLearning
作者: pinkowa (pinkowa)   2017-05-10 07:50:00
其实你是一知半解

Links booklink

Contact Us: admin [ a t ] ucptt.com