※ 引述《circlelee (想转心理系)》之铭言:
: power=会发生拒绝虚无假设的机率
: alpha=type 1 error的机率
: 假设power=0.6
: alpha=0.05
: 那么我们可以说
: 做了100次的研究中会有60次达到显著的结果 (power)
: 但这60次显著中,会有5%是错误的显著即犯了type 1 error
: 所以60次的显著中,会有60*0.05=3次的错误显著。
: 如果观察分配的平均值与比较分配的平均值相等时
: 表示完全不显著的情形,在完全不显著的情况之下,
: 会发生显著的情况,全是由type 1 error所造成,所以此时power=alpha
: 此即为power的最小值。
如题
: : 什么情况power=alpha值
: :
: : 什么情况beta=power
: :
原文两篇一起回答
:接下来先回答下面的两个
三其实很好回答 只要懂上一篇的内容加上会画虚无假设跟对立假设的分配图
答案其实很好想出来(提示其实已经在上一篇里面有给到了
就是对立假设的μ等于临界值时β就等于power=0.5
至于第一题 power=alpha的情况 不知道是C大想问的到底是什么?
如果问的是什么时候power的机率会跟alpha一样大?或著是想问其他的?
这里姑且就当做是要问两者机率一样的时
但是C大在最上面一段的回应当中有几个地方有问题
第一:power的定义不是"会发生拒绝虚无假设的机率"
而是"当虚无假设为假时 正确拒绝虚无假设的机率"
这两句话看起来差不多但是背后概念完全不一样
power跟alpha其实是两回事但都是条件机率
power=P(rejectH0∣H1 true(有的书上或维基写的是H0 fales))
alpha=P(rejectH0∣H0 true)
这两个一样都是会拒绝虚无假设的机率 但是发生的前提不一样
所以只有当H0为假的时候power机率才会成立
接下来我们来说推论统计
推统分
直接推论 (估计:分点估跟区间估计)
跟
间接推论(假设检定)
这两者都会用到中央极限定理 并不是像C大说的只有估计才会用到
理由我懒得说 请自行翻书找资料
区间估计需要点估计值跟一个范围区间来代表母数有多大范围落入此区间
加上产生的估计误差
但直接推论(估计)的结果并不足以完全支持我们想支持的理论
后来科学哲学家Popper提出否证论(1968)(详细内容有兴趣者可自行拜大神一下)
才产生假设检定这东西
回归正题
C大说:
‘假设power=0.6
: alpha=0.05
: 那么我们可以说
: 做了100次的研究中会有60次达到显著的结果 (power)
: 但这60次显著中,会有5%是错误的显著即犯了type 1 error
: 所以60次的显著中,会有60*0.05=3次的错误显著。
: 如果观察分配的平均值与比较分配的平均值相等时
: 表示完全不显著的情形,在完全不显著的情况之下,
: 会发生显著的情况,全是由type 1 error所造成,所以此时power=alpha
: 此即为power的最小值。’
这里一样有几个问题
power并不是这样解释的
因为如果照上面说的"做了100次的研究中会有60次达到显著的结果"
那就不是power的定义而比较像是alpha的定义(因为alpha才是显著区啊!)
照定义及叙述 那这样这0.6应该是alpha 而不是power
所以我才会说C大这边的论述实际上跟power的定义无关:
"做了100次的研究中会有60次达到显著的结果"
"但这60次显著中,会有5%是错误的显著"
在此借用当中的数据重新论述:
实际上是区间估计的概念论述 因为只有属直接推论的区间估计才会这样论述实验结果
而且真正要表示也应该是(只能择一):
"如果alpha=0.05 那表示这100次实验当中会有100*0.05=5次犯错"(这代表C.I=95%)
或著是说:
"在C.I(信赖区间)=60%的情况下
会包含支持实验的结果
并且会有40%的机率犯错"
如果要用假设检定的方式用同样的数据重新论述,则:
power=0.6
alpha=0.05
应该是说:当我们做一次实验(不用到一百次)
在H0为真的情况下仍会有0.05的机率犯错
或 在H0为假的情况下接受H1(或拒绝H0的机率)=0.6
最后
‘如果观察分配的平均值与比较分配的平均值相等时
: 表示完全不显著的情形,在完全不显著的情况之下,
: 会发生显著的情况,全是由type 1 error所造成,所以此时power=alpha
: 此即为power的最小值。’
power与alpha的关系如前所述 是完全不同的事情 所以概念上不会相等
当然你可以说我alpha=0.05 power也0.05在两平均相等的情况 嗯这没问题
但是power最小值并不是在这个时候 power最小值其实是0 原因请自行思考
所以C大请不要激动 我的回文针对的是你把区间估计的想法混入假设检定的解释而不知
小弟并没有说你全错或是不对 我只是指出观念混淆的地方而已
并且你会说 "所以此时power=alpha 此即为power的最小值。"
这表示你对这两者的关系不够清楚才会认为power最小值会等于alpha
因为你把这两者混在一起看了
所以我的回文并不是说你没有清楚交代这两者
而是要跟你说你弄混了这两者的概念
最后我补充power真正的用途
影响power大小的因素有四个
1.alpha大小
2.H0&H1的距离大小
3.母体变异数大小
4.sample size大小
以上各项的变化皆需在其它三者固定的情况下才成立
至于怎么影响一样自行画图应可理解
power实际上决定的是统计检定的敏感度 power越大越敏感 越容易正确的拒绝H0
换句话说 当我有μ0跟μ1时 我有多少的能力去区分这两者有无不同
该能力就是power
另外 当μ0&μ1很近的时候 要能分出两者不同会很难 因为不容易显著
但如果我们就是想要分出不同的时候怎么办呢?
那就是加大sameple size这样就能提升power来达到结果显著的目地
所以如果将来作实验如果不显著
但却想要达显著最好的方试就是加大n的数量 因为通常前三者一旦固定就很难动手脚
但是数量上却是可以改变的
这样的方式就是所谓的power analysis的一部份
以上
有缺漏错误还请指教
补充一下:C大之前回文当中的意思应该是说估计跟假设检定无关
实际上是有关的(这两者是一体两面
因为我一样能用区间估计来做假设检定的运算并结论
(参 林清山:心理与教育统计学 Ch11-2.2 p.233~237)
假设检定只是加进了否证的逻辑
但是真正在验证的方法还是用估计的方式并加入犯错的风险这两者的概念
想想看就知道 实际上我们就是在估计母数
所以不管是H0或H1的平均数才会都以μ表示
不管是估计观察值是否来自该母体 或著是两个不同的母体
背后隐藏的都是估计的概念