Re: [姆咪] maximum likelihood

楼主: int0x80 (请逐项修改)   2022-05-18 01:50:14
※ 引述《std92050 (熊猫大学劣等生)》之铭言:
: 这样看起来MLE很trivial,但这也是因为你一开始就用了太多参数overfitting了,
: 之后也没办法根据这个结果做预测
我其实对这种统计的东西只有在大学机率课的时候学过一点点
不过我记得在教 MLE 的时候是说
既然他们似乎没有明显哪一个比较好,那你就拿能够有最大 likelihood 的
然后这和 uniform prior 下的 MAP 会有一样的结果
可是如果因为用太多参数而 overfit 就限缩参数的范围的话
感觉和把某些参数的 prior 设为 0 是一样意思
那既然你可以假设某些 prior 是 0,那似乎就没有设 uniform prior 的理由了
就是你既然能够对什么比较有可能有所假设(例如是飞天面神的机率为零)
那何不假设的仔细一点,而硬要直接拿 likelihood 呢
我当时是这么想的,可能有点蠢,不过我的确不懂用 MLE 的理由
作者: std92050 (不想去上学)   2022-05-18 09:27:00
MAP我没学过 不过用uniform prior 和决定参数数量不冲突吧例如你丢一颗硬币,可以肯定结果跟旁边的骰子各面机率无关但对于硬币是否公正一无所知 ,那假设uniform prior就很合理

Links booklink

Contact Us: admin [ a t ] ucptt.com