※ 本文是否可提供台大同学转作其他非营利用途?(须保留原作者 ID)
(是/否/其他条件):
是
哪一学年度修课:
110-1
ψ 授课教师 (若为多人合授请写开课教师,以方便收录)
林轩田 教授
λ 开课系所与授课对象 (是否为必修或通识课 / 内容是否与某些背景相关)
资工所选修
δ 课程大概内容
Basic of Machine Learning
The Learning Problem
Feasibility of Learning
Theory of Generalization
Linear Models
Beyond Basic Linear Models
Combatting Overfitting
Wisdom on Using Machine Learning
Support Vector Machine
Bagging and Boosting
Decision Tree Ensembles
Gradient-Boosted Trees
Machine Learning Soundings
主要的目标是告诉你我们怎么让机器透过资料“学”到东西,怎么确保机器在他
没见过的资料里面也能确保可以有一定程度的预测能力。为了说明以及证明这些东西,这
堂课的数学颇多,但证明完真的可以了解为什么可以学习。后半的课程则提供了一些可能
可以让学习变的更好的方法。
基本上大部分学习的model都在解决如何在一个多维空间里面用一个hyperplane把
资料分成两类,然后再推广到其他东西。
Ω 私心推荐指数(以五分计) ★★★★★
只是想学习call library来硬train model ★
不想碰数学 ★
只想考试不想写作业 ★
想了解机器是怎么做到学习的 ★★★★★
想从头到尾写一个可以学习的程式 ★★★★★
η 上课用书(影印讲义或是指定教科书)
μ 上课方式(投影片、团体讨论、老师教学风格)
这个学期的主要上课方式是在youtube和cool上面直播然后用slido互动
(大部分的人采用补影片的方式)
σ 评分方式(给分甜吗?是扎实分?)
无期中考,全部的成绩都是用作业跟期末的kaggle竞赛计算(期末project分数占
比大约跟2.5次作业差不多)
扎实甜,认真写完作业跟Final project report基本上就是A以上
ρ 考题型式、作业方式
作业这学期大约两周一次总共出了6次(原定7次)
每次是16题单选题(其中大约有4~5题需要跑程式),作业过程需要和答案分开交到
gradescope,其中会抽出几题改过程。作业内容大部份是上课证明的延伸,也透过引导帮
助你证出一些很方便的结论。抓出来改过程的那几题会有满严谨明确的给分,基本上就是
着重在有没有把算式或证明的每个部分都说明清楚这样。
loading的部分每份作业我自己加上跟同学讨论的话约15小时解决。
Final Project是三人一组Kaggle竞赛,其中90%的分数在report,只有10%是竞赛
结果换算。Report的重点在使用方法的多样性、说明的清不清楚、合不合理,以及能不能
光看你的report就重现你的方法(限制六页),至于实际表现成果不会占比那么大。
ω 其它(是否注重出席率?如果为外系选修,需先有什么基础较好吗?老师个性?
课程基础上写微积分、线代和机率,实际上用到的机率大部分都在高中范围。
(更:电熊老师说没有都在高中范围,但我只会微积分觉得堪用(?))。
自己没修机率并修线性代数数学基础算是堪用,也会出一个HW0让修课同学确定会
用到的数学基础。
基本上要会写程式不然作业会做不出来,虽然不限语言但是修起来的感觉会
python是最好,课程后半会用到的工具(liblinear、libsvm)也有提供python接口。
Ψ 总结
这次似乎是第一次开三学分的版本(基石+技法?),所以跳过了一些证明。虽然
loading还是超出大部分三学分课程的重量,但是没有之前传闻中(?)那么硬。以一个大二
生的观点来讲,我这个学期花在ADA的时间与ML的时间大致相同。
虽然课说硬,但老师进度其实不快(甚至常常被抱怨慢(X)),很多方法,都会一步
一步用图像的方式展示算法处理的过程,对我这种脑子没转那么快而且抽象构图能力很
差的人很友善,也让整个说明变的很清晰。
推荐给所有对机器学习背后的原理有兴趣的人~