现在的AI就是啊
深度学习爆红是十年前就开始了
但大家根本不知道为什么neural堆深一点就可以学习
CNN出来时屌炸天,好像什么pattern都学的起来一样
然后你问研究者为什么图片和文字的data structure两者可以取得有类比性的成功
他会和你说我也不知道,甚至直接写在论文里那种
然后花了好几年时间trial and error,用结果反推为什么
这个研究方法不叫懂基本原理,的确比较像动漫那种黑科技知道能用就将就著应用而已
基础原理的理解完全跟不上
当然啦,我们知道nerual net可以趋近任意函数
我们也知道这个世界和高斯分布关系很深
(高斯分布encode了最多的不确定性,同样大小的空间下高斯能纪录最多资讯)
但一样啊,这只是稍微justify我们用神经网络,还有每个未知的分布都先用高斯套或高斯p
rior套而已
然后他就work了
明明说因为天下没有白吃的午餐理论,任何一个算法都会被某一些分布的资料搞爆
但他就work了啊
著名学者像Andrew Ng在课堂上也就耸肩说看起来这世界对我们敌意没那么深
.
.
但是最近好像终于开始有些进展了,NTK之类的
满多是19年和今年的论文的,我还没跟上,懂得大大请体谅我的认知
我自己一路学来是觉得
这个领域就是雾里看花,但你学越多雾就越散
现有理论的不完整,我是觉得一部分是真的不完整
但其他一部分是大部分人,甚至可以讲非AI领域,贝氏统计领域,量子领域以外的对uncert
ainty(不确定性)都没什么认知
绝大多数人觉得世界就是0和1,不会去问threshold是什么背后的分布长啥
一旦接受了这世界就是建立在不确定性的基础上这设定后
很多事情就不会脑袋转不过来这样
要知道不一定要知道某一现象才叫懂
你知道你不懂什么不知道什么再能够去推论你懂什么
能做到这样就很近似你懂了,这样