※ 引述《std92050 (熊猫大学劣等生)》之铭言:
: 这样看起来MLE很trivial,但这也是因为你一开始就用了太多参数overfitting了,
: 之后也没办法根据这个结果做预测
我其实对这种统计的东西只有在大学机率课的时候学过一点点
不过我记得在教 MLE 的时候是说
既然他们似乎没有明显哪一个比较好,那你就拿能够有最大 likelihood 的
然后这和 uniform prior 下的 MAP 会有一样的结果
可是如果因为用太多参数而 overfit 就限缩参数的范围的话
感觉和把某些参数的 prior 设为 0 是一样意思
那既然你可以假设某些 prior 是 0,那似乎就没有设 uniform prior 的理由了
就是你既然能够对什么比较有可能有所假设(例如是飞天面神的机率为零)
那何不假设的仔细一点,而硬要直接拿 likelihood 呢
我当时是这么想的,可能有点蠢,不过我的确不懂用 MLE 的理由