※ 引述《ckrmpuhv (阿瓜)》之铭言:
: 各位板上大大好
: 小弟是后段国立科大资管硕即将毕业
^^^^^^^^^^^^^^^^^
恩..."后段国立科大资管",好一点的公司可能连HR那关都过不了
: 因为一些私人原因是不用当兵
: 所以论文完成后准备开始找工作
: 目前程度:
: 大学学过JAVA
^^^^^^^^^^^^^^^
要走ML,应该是要用Python吧,至少tensorflow 或是pytorch都是在python上有最多的
支持,那如果要走ML的底层,那就应该要会c++跟cuda或是opencl之类的
: 网页跟数据库也只有课堂学习过没实际做小专案
: 因为对Ml有兴趣
: 在硕阶段期间 都是自学ML相关
: 听过李宏毅老师的课
: 实作过他课程的作业
: Keras的一些神经网络搭建也没舍问题
: Kaggle只参加过一两次 排名都很烂
: 大部分的实作和论文都是跟影像辨识相关
: 最近看板上大大各式各样建议
: 非四大四中 也不是kaggle的佼佼者
: 数学方面 线代没学 统计学大学学过但也不熟
: 看完觉得自己很烂出去可能没人要?
理论不行,直接自爆
但我想问一下,你是否有能力可以去推导back propagation?
或是可以用数学理解为何inception net 比 VGG16好
那什么是 L1 L2 constrain?
牛顿法跟gradient descent有什么关系勒?
你说你的论文是跟影像有关的,那懂不懂傅立叶转换阿?
: 目前都还在做ml各种模型实作
: 但看完板上很迷茫要往哪些方向学习怕找不到工作非常忧郁
: 我不清楚该横向发展拓别的领域
: 像是网页、App 自己做一些小专案增加作品集
: 还是去补数学 更深入研究Ml
: 又或者先去刷Leetcode打底
: 还请各位大大指教 谢谢
:
推这篇,我不是ML专业但常常看到套模型就说自己会ML的人…
其实现在有1&2混起来做的 2才是能赚钱的XD套模型也可以啦 问题是要套对就是了
借串问一下,我虽然懂那些基本题,可是不太清楚为何懂了可以知道怎么设学习率那一块一般来说不就是,太大的数字不行,就换小的试试看吗?
作者: UNPRO (业余) 2021-03-11 14:36:00
推这篇
作者: rereterry (rereterry) 2021-03-11 15:51:00
其实看要走应用还是分析,之后还可以拆分是走纯数据,影像,NLP,之后还可以再细分是商品,还是纯模型,这块领域现在被架构的还蛮大的,像银行体系也会是一条路啦!
作者:
tay2510 (Tay)
2021-03-11 16:27:00ntp大会有疑问是是正常的 原po的lr的例子有点误导了,实务上都是直接用平行框架搭配一些搜寻算法去找合适的lr,但我同意跟主管解释为什么那个部份
作者:
hegemon (hegemon)
2021-03-11 16:30:00香港某个女网红也说自己在搞ML, 就套套别人的工具月薪就不少了
(学生浅见)资料工程师通常都会先用传统ML方法试试看吧?像RandomForest等方法,若算法效率不好应该先回头从Data Level检视/处理,用DL怒train一发通常都是最后选项?
作者:
drajan (EasoN)
2021-03-11 18:48:00先弄出一个可以上线的稳定系统是最难的 挑选model往往是比较容易的部分 大部分都会建议用最简单的方式去做因为光是最简单的方式就可以搞死你了
作者:
MoonCode (MoonCode)
2021-03-11 19:25:00数学不好或是没精通原理的人都不用上班了懂不懂原理不是重点而是能不能产生价值
作者:
evan176 (clown)
2021-03-11 19:44:00不认同楼上,当你面试碰到会BERT但不知道regression和classification差别的人该怎么办呢?现在这样的ML大师还不在少数
有人会Bert还分不清楚cls/reg哦xdddd 那他transformer是白学了?
。。现在很多是ensembling learning现在很多资料工程师反而不懂传统都先train一发再说
作者:
iiiii (I take 5)
2021-03-12 10:11:00直接问不用py,还可以学吗?
主成分分析和feature engineering
作者:
exthrash (Wherever I may roam)
2021-03-12 12:18:00现在没什么人在用PCA吧
作者:
pot1234 (锅子)
2021-03-12 22:31:00偷问一下 印象中影像的DL也满多不傅立叶转换直接做的吧
作者:
loadingN (sarsaparilla)
2021-03-12 22:38:00肥宅会fft能加分吗
做ML线代统计重要性没那么大啦,模型performance好才是真的
back propagation这种大一微积分就教的东西有什么好嘴的
都哪年了还在VGG16...都快跟SIFT一样古董了