Re: [请益] AI的发展选择

楼主: foxgoodboy (i have a dream)   2017-10-23 10:59:15
看完一系列文章 似乎了解AI的人不多 毕竟在浪头上
所以大家一窝风的去炒他
→ enso: 硬件架构还是得看哪一类的应用。若多为影像辨识,那gpu还是 10/23 00:22
→ enso: 好用些。至于AI,也是蛮广的,不是跑CNN就算AI。到终究还是 10/23 00:22
→ enso: 统计...
AI弄到最后 老实说就统计跟数学 程式只是辅助工具而已
而硬件 是进阶的辅助
因为进步非常的快 所以常常今年流行的算法 明后年马上很少人用了
譬如说当初学的SVM的 kernel 学了几十种 Kernel 还有混和kernel
第二年学教就不开kernel 直接交deep learning
再过一年直接变成 deep reinforced learning 也开始有简单的ML套装软件出现
我同学还开发了 直接在excel上面可以用ML 套件 给商学院的人使用
至些都只是用现成的API 至于未来会不会有比较高效的算法出现 很难说~
所以或句话说 你今天会的API 明年可能马上退流行或被取代掉了
而且以台湾现状 大多都是用现成的API 调调参数 这算真的懂ML吗?
跟几个ML的教授跟 Hassabis 聊过 他们给我的忠告是把 数学 统计学 C++学好
因为算法可能几年后主流就不再deep learning了
那时候是不是又会开发出新的芯片架构 提供给新的演算用呢?
很难说~~
※ 引述《david190 (david)》之铭言:
: ※ 引述《vivian032619 (亮~被骂+挂电话惹)》之铭言:
: : 朋友代po
: :
作者: senjor (哞哞)   2017-10-23 11:03:00
我觉得这就是有点看不起应用层了,选好Featrue不见得比做kernel简单,不如说好的featrue改善程度远大于改kernel很多时候还会选不同kernel来验证这个featrue是真的有效的这也算是ML的鄙视链吧...
楼主: foxgoodboy (i have a dream)   2017-10-23 11:05:00
Featrue通常是靠统计哪块去选~不然你是怎么选feature?统计不够强根本无法选出合适的features只能用try的 目前台湾好像都是用try的
作者: senjor (哞哞)   2017-10-23 11:09:00
应该说ML有很多面向,用现成的API调参数只是一个选择,每人着重的面向都不同,不代表用现成的API调参数就是不懂ML
楼主: foxgoodboy (i have a dream)   2017-10-23 11:11:00
因为API很方便 所以国外蛮多做ML的公司 面试就直接考你公式推导 还有每个API参数的特性适用于那种data 会考的你不要不要的~~~因为他们就怕你只会调参数 但不知道它的原理
作者: senjor (哞哞)   2017-10-23 11:14:00
这方面我就没涉猎了,受教了。
楼主: foxgoodboy (i have a dream)   2017-10-23 11:16:00
最好笑的 我有一个同学直接跟面试官说 我会调参数就好面试官直接回答他 你原理都不懂 你确定你会调?
作者: hsnuyi (羊咩咩~)   2017-10-23 11:18:00
您认真了 跟GG版说这些做啥? 去GG一辈子赚150才是王道
作者: senjor (哞哞)   2017-10-23 11:19:00
不过这边讲的会调参数跟我想的不太一样就是,我以为的会用API跟会调参数就是会知道你说的那些,但是可能是算法或其他程度不足以到自己开发到实用API的程度这样。
楼主: foxgoodboy (i have a dream)   2017-10-23 11:23:00
楼上讲这样也是没错啦~~但那是比较强一点状况比较弱的状况 就乱调得到很高的准确率 就说自己会了那真的很傻眼
作者: senjor (哞哞)   2017-10-23 11:28:00
这...我没想到这种人的可能性...是我孟浪了 Orz
作者: cobrasgo (人鱼线变成鲔鱼线,超帅)   2017-10-23 11:30:00
c++?把python当死人了吗(战)
作者: a1234567289 (蛋包饭)   2017-10-23 11:37:00
推 真的一堆人在try参数 然后获得很高准确度就说会了然后问他你调参数的道理是啥 觉得遇到什么问题才这样改变参数 结果都达不出来 QQ不然就发现精度不够 一窝蜂的跑去想办法找资料来try
作者: senjor (哞哞)   2017-10-23 11:42:00
我还记得刚进研究所的时候,就是写两个loop去跑K-fold CV然后这样去拿SVM的两个参数,谁知道为什么这个参数好,用就对了 (ry
作者: ice80712 (我很有事)   2017-10-23 11:58:00
feature未必要用统计 机器也可以学阿
作者: laba5566 (最爱56家族 啾咪)   2017-10-23 12:01:00
选feature多的方法干 造feature才是难点
作者: david190 (david)   2017-10-23 12:03:00
当然是这样的阿 新的更好算法 值得更好的硬件架构
作者: laba5566 (最爱56家族 啾咪)   2017-10-23 12:03:00
大部分top model RF GB表现会十分近似 弄好feature出来
作者: senjor (哞哞)   2017-10-23 12:05:00
这让我想到生还者预测,姓名直接被丢进去没有太大效益但是如果整理成家族生还率的参照featrue就会有效果不过感觉这又变成类似前后端之争的东西了,鄙视链重现
作者: y800122155 (@__@)   2017-10-23 13:31:00
SVM只有g/c两个参数都能不懂原理 那10个以上怎么调XD
作者: senjor (哞哞)   2017-10-23 14:11:00
跑10个loop (ry
作者: F14A (汤姆猫)   2017-10-23 15:25:00
之前看研究所的学长meeting,整场我就只看到他:准确率不高->改参数 or 加一堆有的没的模型->准确率变高了ya ,有够无言...
作者: aacs0130 (湛靈)   2017-10-23 16:29:00
推造feature才是困难的,选feature有很多统计方法
作者: senjor (哞哞)   2017-10-23 17:01:00
我现在才知道原来选feature跟造feature居然被分成两种了我整个老人化...以前我们说选feature就包含选自己作出来的
作者: enso (Raven Family)   2017-10-23 17:38:00
参数化也是统计的一部份... 最后会发现,会挑数据比教重要
作者: francishsu (法蓝西)   2017-10-23 18:00:00
GIGO
作者: Iamjkc (萬年死會)   2017-10-23 19:36:00
满专业的 数学还是要先打好基础...
作者: harrybbs (harrybbs)   2017-10-23 19:46:00
AI专业可以超越GG的150吧
作者: Gaogaigar   2017-10-23 20:57:00
我也是觉得feature seletection跟data presentation不一样的说o 3o
楼主: foxgoodboy (i have a dream)   2017-10-24 13:01:00
印象当中最好玩的是~我问了几个MIT的主管~如何把分布不平均的data 变成常态分布的时候没有一个答得出来的~~我就跟他们说 开根号乘以十其中一个听得懂~就一直笑~
作者: Jerrynet (我爱Hot_game板)   2017-10-24 13:26:00
教授期末调分,ㄏㄏ
作者: cld123 (colin)   2017-10-25 10:19:00
要挑feature也要有sample训练啊

Links booklink

Contact Us: admin [ a t ] ucptt.com