※ 引述《praiseZun (praiseZun)》之铭言:
: 现在的AI就是啊
: 深度学习爆红是十年前就开始了
: 但大家根本不知道为什么neural堆深一点就可以学习
: CNN出来时屌炸天,好像什么pattern都学的起来一样
: 然后你问研究者为什么图片和文字的data structure两者可以取得有类比性的成功
: 他会和你说我也不知道,甚至直接写在论文里那种
: 然后花了好几年时间trial and error,用结果反推为什么
: 这个研究方法不叫懂基本原理,的确比较像动漫那种黑科技知道能用就将就著应用而已
: 基础原理的理解完全跟不上
: 当然啦,我们知道nerual net可以趋近任意函数
: 我们也知道这个世界和高斯分布关系很深
: (高斯分布encode了最多的不确定性,同样大小的空间下高斯能纪录最多资讯)
: 但一样啊,这只是稍微justify我们用神经网络,还有每个未知的分布都先用高斯套或
高斯p
: rior套而已
: 然后他就work了
: 明明说因为天下没有白吃的午餐理论,任何一个算法都会被某一些分布的资料搞爆
: 但他就work了啊
: 著名学者像Andrew Ng在课堂上也就耸肩说看起来这世界对我们敌意没那么深
: .
: .
: 但是最近好像终于开始有些进展了,NTK之类的
: 满多是19年和今年的论文的,我还没跟上,懂得大大请体谅我的认知
: 我自己一路学来是觉得
: 这个领域就是雾里看花,但你学越多雾就越散
: 现有理论的不完整,我是觉得一部分是真的不完整
: 但其他一部分是大部分人,甚至可以讲非AI领域,贝氏统计领域,量子领域以外的对un
cert
: ainty(不确定性)都没什么认知
: 绝大多数人觉得世界就是0和1,不会去问threshold是什么背后的分布长啥
: 一旦接受了这世界就是建立在不确定性的基础上这设定后
: 很多事情就不会脑袋转不过来这样
: 要知道不一定要知道某一现象才叫懂
: 你知道你不懂什么不知道什么再能够去推论你懂什么
: 能做到这样就很近似你懂了,这样
: