楼主:
foxgoodboy (i have a dream)
2017-10-23 10:59:15看完一系列文章 似乎了解AI的人不多 毕竟在浪头上
所以大家一窝风的去炒他
→ enso: 硬件架构还是得看哪一类的应用。若多为影像辨识,那gpu还是 10/23 00:22
→ enso: 好用些。至于AI,也是蛮广的,不是跑CNN就算AI。到终究还是 10/23 00:22
→ enso: 统计...
AI弄到最后 老实说就统计跟数学 程式只是辅助工具而已
而硬件 是进阶的辅助
因为进步非常的快 所以常常今年流行的算法 明后年马上很少人用了
譬如说当初学的SVM的 kernel 学了几十种 Kernel 还有混和kernel
第二年学教就不开kernel 直接交deep learning
再过一年直接变成 deep reinforced learning 也开始有简单的ML套装软件出现
我同学还开发了 直接在excel上面可以用ML 套件 给商学院的人使用
至些都只是用现成的API 至于未来会不会有比较高效的算法出现 很难说~
所以或句话说 你今天会的API 明年可能马上退流行或被取代掉了
而且以台湾现状 大多都是用现成的API 调调参数 这算真的懂ML吗?
跟几个ML的教授跟 Hassabis 聊过 他们给我的忠告是把 数学 统计学 C++学好
因为算法可能几年后主流就不再deep learning了
那时候是不是又会开发出新的芯片架构 提供给新的演算用呢?
很难说~~
※ 引述《david190 (david)》之铭言:
: ※ 引述《vivian032619 (亮~被骂+挂电话惹)》之铭言:
: : 朋友代po
: :
作者:
senjor (哞哞)
2017-10-23 11:03:00我觉得这就是有点看不起应用层了,选好Featrue不见得比做kernel简单,不如说好的featrue改善程度远大于改kernel很多时候还会选不同kernel来验证这个featrue是真的有效的这也算是ML的鄙视链吧...
楼主:
foxgoodboy (i have a dream)
2017-10-23 11:05:00Featrue通常是靠统计哪块去选~不然你是怎么选feature?统计不够强根本无法选出合适的features只能用try的 目前台湾好像都是用try的
作者:
senjor (哞哞)
2017-10-23 11:09:00应该说ML有很多面向,用现成的API调参数只是一个选择,每人着重的面向都不同,不代表用现成的API调参数就是不懂ML
楼主:
foxgoodboy (i have a dream)
2017-10-23 11:11:00因为API很方便 所以国外蛮多做ML的公司 面试就直接考你公式推导 还有每个API参数的特性适用于那种data 会考的你不要不要的~~~因为他们就怕你只会调参数 但不知道它的原理
作者:
senjor (哞哞)
2017-10-23 11:14:00这方面我就没涉猎了,受教了。
楼主:
foxgoodboy (i have a dream)
2017-10-23 11:16:00最好笑的 我有一个同学直接跟面试官说 我会调参数就好面试官直接回答他 你原理都不懂 你确定你会调?
作者: hsnuyi (羊咩咩~) 2017-10-23 11:18:00
您认真了 跟GG版说这些做啥? 去GG一辈子赚150才是王道
作者:
senjor (哞哞)
2017-10-23 11:19:00不过这边讲的会调参数跟我想的不太一样就是,我以为的会用API跟会调参数就是会知道你说的那些,但是可能是算法或其他程度不足以到自己开发到实用API的程度这样。
楼主:
foxgoodboy (i have a dream)
2017-10-23 11:23:00楼上讲这样也是没错啦~~但那是比较强一点状况比较弱的状况 就乱调得到很高的准确率 就说自己会了那真的很傻眼
作者:
senjor (哞哞)
2017-10-23 11:28:00这...我没想到这种人的可能性...是我孟浪了 Orz
作者:
cobrasgo (人鱼线变成鲔鱼线,超帅)
2017-10-23 11:30:00c++?把python当死人了吗(战)
推 真的一堆人在try参数 然后获得很高准确度就说会了然后问他你调参数的道理是啥 觉得遇到什么问题才这样改变参数 结果都达不出来 QQ不然就发现精度不够 一窝蜂的跑去想办法找资料来try
作者:
senjor (哞哞)
2017-10-23 11:42:00我还记得刚进研究所的时候,就是写两个loop去跑K-fold CV然后这样去拿SVM的两个参数,谁知道为什么这个参数好,用就对了 (ry
作者:
laba5566 (最爱56家族 啾咪)
2017-10-23 12:01:00选feature多的方法干 造feature才是难点
作者:
david190 (david)
2017-10-23 12:03:00当然是这样的阿 新的更好算法 值得更好的硬件架构
作者:
laba5566 (最爱56家族 啾咪)
2017-10-23 12:03:00大部分top model RF GB表现会十分近似 弄好feature出来
作者:
senjor (哞哞)
2017-10-23 12:05:00这让我想到生还者预测,姓名直接被丢进去没有太大效益但是如果整理成家族生还率的参照featrue就会有效果不过感觉这又变成类似前后端之争的东西了,鄙视链重现
SVM只有g/c两个参数都能不懂原理 那10个以上怎么调XD
作者:
senjor (哞哞)
2017-10-23 14:11:00跑10个loop (ry
作者: F14A (汤姆猫) 2017-10-23 15:25:00
之前看研究所的学长meeting,整场我就只看到他:准确率不高->改参数 or 加一堆有的没的模型->准确率变高了ya ,有够无言...
作者:
aacs0130 (æ¹›éˆ)
2017-10-23 16:29:00推造feature才是困难的,选feature有很多统计方法
作者:
senjor (哞哞)
2017-10-23 17:01:00我现在才知道原来选feature跟造feature居然被分成两种了我整个老人化...以前我们说选feature就包含选自己作出来的
作者:
enso (Raven Family)
2017-10-23 17:38:00参数化也是统计的一部份... 最后会发现,会挑数据比教重要
作者:
Iamjkc (è¬å¹´æ»æœƒ)
2017-10-23 19:36:00满专业的 数学还是要先打好基础...
作者:
harrybbs (harrybbs)
2017-10-23 19:46:00AI专业可以超越GG的150吧
我也是觉得feature seletection跟data presentation不一样的说o 3o
楼主:
foxgoodboy (i have a dream)
2017-10-24 13:01:00印象当中最好玩的是~我问了几个MIT的主管~如何把分布不平均的data 变成常态分布的时候没有一个答得出来的~~我就跟他们说 开根号乘以十其中一个听得懂~就一直笑~
作者:
Jerrynet (我爱Hot_game板)
2017-10-24 13:26:00教授期末调分,ㄏㄏ
作者:
cld123 (colin)
2017-10-25 10:19:00要挑feature也要有sample训练啊