Re: [问卦] 人工智能/机器学习 现在来看真的很猛吗??

楼主: Schwinger (千金之子不死于盗贼)   2017-05-10 03:34:20
※ 引述《soaping (捡肥皂ing)》之铭言:
: 小鲁是文组啦
: 现在看到一堆人在吹捧人工智能阿 机器学习阿
: 只是觉得很好奇为啥一堆非本科系 没写过code的人也可以出来吹捧?
: 看内容比较像是他们自己的想像
: 根本就是把威尔史密斯的机械公敌拿出来说嘴
: 就像是现在一堆人拿excel说他们在做big data一样
: 现实中有在做这领域的专家or研究生真的觉得这东西很猛吗?
: 有看人家写说 到现在model跑的过程中发生什么事情无法得知
: 会跑什么东西出来也不知道 就像是创造了一个自己也不了解的东西
: 版上神人极多
: 有比较贴近真实的研究现况吗?
一直想说要不要回一篇MATLAB有没有用的文章? 干脆回这篇好了
我也不敢说我懂machine learning,拜托只是说一个故事,希望大家勿肉搜><
我只是感慨台湾的舆论充满了如此多的谬论所以希望以公民的立场写这个文章
我大学的时候machine learning是统计所开的课,那时候觉得这门课名好怪
当时可能几乎没有几个人修吧,那时候是类神经网络最最最低潮的时候,但是那与我无关XD
那时候正是美国网络泡沫最严重的时候,当时拿着资工系学生证的我忐忑不安,那时候我
爸妈又不准我重考,我还特地跑去问老师说,资工到底有没有前途,老师都跟你嘴说 没前途
但是那时候老师猜对了吗? 没有,他只是认为印度软件很厉害而已,那时候真的中国大陆的
资讯科技和网络是趋近于0,但是那时候中国最优秀的人就已经是念软件(软件)了,另外一个
是生科,当时中国最优秀的几乎跑去念生科,我看PTT抱怨念生科的文章实在是看不出问题
真正的根源,说生科没前途(心里os:难道念数学和物理就有前途吗?)
后来我是在知乎找到一个比较合理的答案,大家都是懵懵懂懂念大学和科系,被骗
是正常,我的意思是比如你觉得念XX很有前途,但是不但没钱赚反而得到一个很大的失落感
生科系可能就是没日没夜做实验当廉价劳工,但是应该有人喜欢做实验吧?
其实我看了中国节目访问北京清大生科教授颜宁的访谈,让我非常想念生科呢!!!
换个角度想我们理学院不也是整天埋在书堆的廉价劳工,那你不能怪当初念XX系,是你自己
愿赌服输对吧? 不然就是一种可能性,资讯传达错误和人云亦云,这就是我今天会写这篇
文章的原因,我觉得台湾是一个传达资讯错误和人云亦云非常严重的地方
言归正传,我每次看到AI和machine learning的文章和修课人数就觉得这股热潮
大概物理光电泡沫以来最热的一次,当然我也不小心被洗进去上一股泡沫,但是我却意外
地找到自己真正的兴趣 物理,她是我高中最痛恨的学科,我没有真正上过高中物理老师的课
要不是那股热潮把我洗进去物理,我一辈子都不知道自己的兴趣和天分是物理,
应该说只要是知识相关我都喜欢,但是我觉得我年轻的时候应该是要念一下数学和物理,
剩下的我退休再去念就好,你要说我后悔吗?其实也还好
当然我今天不是来跟各位说教或是什么,讲天分又实在是有点丢人现眼,我唯一的乐趣就是
在物理有一种"平行计算"的天分,我可以一次算个100页的量子力学和量子场论持续3个月
一次同时算好几篇论文,虽然就真的手算就是了,虽然真的当时傻傻以为这样就能在物理
混口饭吃
当然我今天不是来跟各位说教或是什么,只是感叹潮流和科技的变化实在恐怖
谈到machine learning相关文章,我就觉得奇怪怎么没有人提到数值和最佳化呢?
我以前也是以为数值和数值太简单没屁用,这完全是一种资讯传递错误的原因呀,你要做
machine learning的研究甚至出色的人,不是去尽可能学那些杂七杂八工具耗尽你的精力,
而是努力去把machine learning的内功,数值最佳化和矩阵计算练起来
光是这里面又可以分 矩阵计算-> 数值最佳化 -> 凸最佳化
那矩阵计算最重要的是什么? 是算法,用MATLAB来实现即可
那有乡民可能会问业界不是买不起MATLAB或是用其他语言吗?
我会说你先进来学矩阵计算,真的不会很难,只是常常会要你半条命XDDD
数学里面最简单大概就是数值,因为够直觉,不然你觉得代数有比较简单?
当然高微,线代,泛函,PDE,ODE能懂是最好,当你够出色的时候有本事解决实际问题
是那些人捧著钱来请你做事的,谁管你用MATLAB还是用C,Python
八卦是
machine learning是交叉学科,我也不敢说她简单,这里面几乎都是我没听过的名词
而且你上不同老师用不同课本还真的不一样的内容,如果要推荐初学者我会推
Pattern Recognition and Machine Learning 作者 Christopher Bishop
主要还是这本好上手又不失内容完整性,剩下你去看统计学习或是其他deep learning
有时候真的会觉得太杂乱,但是还蛮意外Bishop是跟物理领域非常相近的人
https://en.wikipedia.org/wiki/Christopher_Bishop
拜托我只是纯粹对台湾常常资讯传递错误想要解释一些事情的乡民,希望我们也能够有
知乎这种经典的文章,虽然我也没看很多啦
如果你跟我一样有时候真的要懂机器为何能学习的理论,那就可以去看
1.The Nature of Statistical Learning Theory 作者 Vladimir Vapnik
2.Statistical Learning Theory - Vladimir N. Vapnik
看懂这二本的基础是实变,泛函,还有一颗好奇的心XD
脸书人工智能再找大师助阵,机器学习领域先驱之一的统计学习理论之父也加入
http://www.ithome.com.tw/news/92620
http://www.ithome.com.tw/news/92620
作者: formatted (ゴミ丼 わがんりんにゃれ)   2016-05-10 03:34:00
我喜欢你这篇..谢谢你!!你是不是喜欢Julian Schwinger <33
作者: uhmeiouramu (优文老祖)   2017-05-10 03:35:00
所以天网还要几年?
作者: takashi01 (废文小王子)   2017-05-10 03:35:00
推 加油
作者: arrenwu (键盘的战鬼)   2017-05-10 03:37:00
DeepLearning跟天网是不同类型的AI
作者: bisconect (李东翰)   2017-05-10 03:38:00
呃... 看不太出你想说的重点是什么
作者: arrenwu (键盘的战鬼)   2017-05-10 03:38:00
原来我不是惟一看不懂重点的人呀
作者: tentimes (十遍)   2017-05-10 03:39:00
当初修统计所的教svm搞得自己很乱 自己看machine learning还比较懂zz
作者: aynmeow (只有我跟喵喵)   2017-05-10 03:40:00
机械学习不可逆 人类追求永生的机会就在这里惹
作者: tentimes (十遍)   2017-05-10 03:40:00
这真的很难懂
作者: arrenwu (键盘的战鬼)   2017-05-10 03:41:00
其实 ML 本来就是统计的东西
作者: formatted (ゴミ丼 わがんりんにゃれ)   2017-05-10 03:41:00
我很喜欢Julian Schwinger 你要加油喔!
作者: wayne1228 (wayne1228)   2017-05-10 03:41:00
好文
作者: arrenwu (键盘的战鬼)   2017-05-10 03:42:00
现在所谓ML所使用的技术绝大部分都是很古老的知识
作者: cybermeow (我有一只猫)   2017-05-10 03:43:00
我也觉得文章有点缺乏重点
作者: arrenwu (键盘的战鬼)   2017-05-10 03:43:00
我其实也不知道为啥ML课程这么屌 夯的明明就是深度学习
作者: formatted (ゴミ丼 わがんりんにゃれ)   2017-05-10 03:43:00
Dick learning :p
作者: bluebluelan (新阴流大目录免许皆传)   2017-05-10 03:44:00
卖闹啊 真的能转换钱的 现在都还是ML
作者: arrenwu (键盘的战鬼)   2017-05-10 03:44:00
可是大多数ML课程对DeepLearning的教学几乎只有带过而已
作者: cybermeow (我有一只猫)   2017-05-10 03:44:00
毕竟ML也是DL的基础吧 很多时候deep network出来也要加
作者: victciv (努力型肥宅)   2017-05-10 03:45:00
排版和辞意表达真的要加强..
作者: arrenwu (键盘的战鬼)   2017-05-10 03:45:00
我怎么没有绝的ML是DL的基础XD model都不一样了
作者: cybermeow (我有一只猫)   2017-05-10 03:45:00
上一层 svm 然后pretraining也是unsupervised的东西
作者: cybermeow (我有一只猫)   2017-05-10 03:46:00
上面那些也是DL要达成的啊
作者: arrenwu (键盘的战鬼)   2017-05-10 03:46:00
我的意思是目前DL几乎被信赖到变成唯一最佳姊了
作者: arrenwu (键盘的战鬼)   2017-05-10 03:50:00
现在就变成古典ML技术自己玩玩开心一下可以要真的上战场,NN唯一姊 其他旁边玩沙
作者: Assisi (Francesco d'Assisi)   2017-05-10 03:55:00
我觉得 NN 倒也不会只是唯一解,如何去解决非全域的资讯
作者: arrenwu (键盘的战鬼)   2017-05-10 03:55:00
其实搞不好也没差那么多喔 人类对于 Deep Learning的理解
作者: lucifiel1618 (Lucifiel)   2017-05-10 03:55:00
安安大师好久不见
作者: mk99   2017-05-10 03:55:00
DL是ML的子集合
作者: rogger   2017-05-10 03:56:00
超弦不是一直没有证据 快不行了吗
作者: arrenwu (键盘的战鬼)   2017-05-10 03:56:00
大家只知道Universal Approximation Theorem的结果但是performnace guarantee 那边到目前0进展
作者: mk99   2017-05-10 03:56:00
DL是属于复杂度高的方法,但并不是所有问题都一定要这么复杂
作者: arrenwu (键盘的战鬼)   2017-05-10 03:57:00
不过没差 大多数人也不care理论
作者: bluebluelan (新阴流大目录免许皆传)   2017-05-10 03:57:00
mk99说得完全正确
作者: bluebluelan (新阴流大目录免许皆传)   2017-05-10 03:58:00
NN横空出世那谋久了 文本分析主流还是SVM
作者: cybermeow (我有一只猫)   2017-05-10 03:58:00
我倒觉得做相关的学者几乎都会凑一脚(拿来用 但背后的数学目前如何了有谁在做就不知道了
作者: arrenwu (键盘的战鬼)   2017-05-10 03:58:00
因为目前试图对NN进行数学分析的都吃了满肚子大便
作者: cybermeow (我有一只猫)   2017-05-10 03:59:00
整个community应该是蛮care理论的 但毕竟那不是人人都能做 只能等高人突破了
作者: arrenwu (键盘的战鬼)   2017-05-10 04:00:00
这有些时候也不是你能控制的 因为funding差异天与地你只要能拉funding 其他缺陷学院几乎都能忍受理论? 干 当全世界的人都相信的时候 理论还真的不太重要
作者: cybermeow (我有一只猫)   2017-05-10 04:02:00
其实蛮重要的 上面那个theorem如果能给出明确的估界的话算法应该会有相当的受益 不然目前就是一个limit
作者: formatted (ゴミ丼 わがんりんにゃれ)   2017-05-10 04:05:00
funding很难拉啦...
作者: ej83bp6 (a3xfjljdflkj2sdzmcljixz)   2017-05-10 04:06:00
推分享文,所以你现在最感兴趣的领域是什么
作者: arrenwu (键盘的战鬼)   2017-05-10 04:06:00
围棋那个人类书给电脑还算满合理的吧必然存在一个optimal policy 的情况下 人输了才合理啊以前只是不知道该怎么有效率地找而已现在NN可以大量平行化 显卡应该应该还可以爽5年
作者: lastmile (帕妮)   2017-05-10 04:34:00
你不疯狂时说的话还蛮中肯的...
作者: EGsux (天龙人)   2017-05-10 05:28:00
MatLab 现在没钱买自学可以用 octave 阿 而且现在DL 还有 tensorflow 算比以前简单很多了现在我看追求的都找不是统计 资工的人去找实际应用
作者: likeyousmile   2017-05-10 06:25:00
将来会是人类智慧结合ML称霸。不过这领域还太新,没人知道怎么做。把ML当过目不忘,十分细心的小孩,大人靠智慧教小孩如何运用才智。现在大概只是拿一叠棋谱给小孩,告诉他胜负规则然后放手让他自己融会贯通
作者: appl (苹果先生)   2017-05-10 07:27:00
生科问题很明显啊 造假造假还是造假

Links booklink

Contact Us: admin [ a t ] ucptt.com