医者 [quote]引用第12楼redlou于2007-07-23 15:35发表的“”: for a nested set of rejection regions{J},the p-value of an observed statistic T=t is define to be p-value(t)=min_{J: tin J} {Pr(T in J | H=0)}.[/quote] 能不能把他通顺地翻译成中文?
医者 看了一个英文的说明:The significance level of the test is not determined by the p-value. The significance level of a test is a value that should be decided upon by the agent interpreting the data before the data are viewed, and is compared against the p-value or any other statistic calculated after the test has been performed. 就是说显著水平不适由P值决定的。那么t界值是不是由显著水平α 决定的呢?如果是那样的话,在表述t界值的时候就不该出现P值是不是?
无痕 今年是王星老师教的。呵呵,我们用的John A. Rice 那本Mathematical Statistics and Data Analysis,也就是按上面的定义讲的拉。具体怎么叙述的记不清。 不过应该就是说:p-value是原假设为真的时候,拒绝原假设的概率,就是犯第一类错误的概率。p值越小犯第一类错误的风险就越低。我就这么理解的,不知道对不对。
医者 [quote]引用第16楼无痕于2007-07-24 17:22发表的“”: 今年是王星老师教的。呵呵,我们用的John A. Rice 那本Mathematical Statistics and Data Analysis,也就是按上面的定义讲的拉。具体怎么叙述的记不清。 不过应该就是说:p-value是原假设为真的时候,拒绝原假设的概率,就是犯第一类错误的概率。p值越小犯第一类错误的风险就越低。我就这么理解的,不知道对不对。[/quote] 是对的,但是需要对P值的深层理解!
hexm26 这个太牛了,坛主不加精固顶都对不起全中国人民!!! [quote]引用第5楼rtist于2007-07-23 12:26发表的“”: neyman & pearson和fisher的检验完全是两种东西:fisher的检验里面不会存在备则假设——fisher的理论基础就是反证法。无论想证明什么是正确的,都要先假定它不正确,然后看从这个不正确的假定中可以得到什么奇怪的结果(比如发生了一件本来几乎不会发生的小概率事件),从而推翻原假设。p值得概念就是这样得来的,它就是那个奇怪的结果,如果p值很大,也就是并不奇怪的时候,按照反证法的原理来看,我们不知道原假设是不是正确的,再大的p值也不能说明原假设正确。 neyman & pearson体系里面出现了备则假设,要判断原假设和备则假设哪个正确,显而易见的方法就是看究竟是在原假设成立的情况下更容易观测到手头的数据,还是在备则假设成立的情况下更容易观测到手头的数据——两者相除即得likelihood ratio test。 bayesian体系下面将原假设和备则假设都不看作是固定但未知的事实,而看作是一种不固定的随机变量,变量的分布则由头脑发热的一个猜测(即信仰,主观的)和手头的真实数据(客观的)共同决定的。因为两个假设都不是固定的,所以也谈不上”判断“那个假设正确。所以decision theory下大家常看的是平均情况下那个假设更可能发生(后验概率或者bayes factor)。 在fisher的体系下,使用t检验或者F检验的唯一原因是他们容易计算,在他看来,这些检验都是为了得到真正的p值而进行的”近似“,而真正的p值是由permutation来决定的。那个时代没有现在这么快的计算机,大家需要做permutation检验来找到p值的时候,就是用一大屋子的妇女,让一个人算一两种permutation下统计量的值,然后汇总一大屋子人的结果,得到最后的(通常是nominal)p值。 .......[/quote]
rtist Thanks to Msmart, hexm26, and oliyiyi. I benefited a lot from your (other) posts also. And also thanks to Yihui, for setting up this forum for ppl to "meet" in this way!
hogwild QUOTE: 引用第16楼无痕于2007-07-24 17:22发表的“”: 今年是王星老师教的。呵呵,我们用的John A. Rice 那本Mathematical Statistics and Data Analysis,也就是按上面的定义讲的拉。具体怎么叙述的记不清。不过应该就是说:p-value是原假设为真的时候,拒绝原假设的概率,就是犯第一类错误的概率。p值越小犯第一类错误的风险就越低。我就这么理解的,不知道对不对。 [quote]引用第17楼医者于2007-07-24 20:01发表的“”: 是对的,但是需要对P值的深层理解![/quote] "Small p-values suggest that the null hypothesis is unlikely to be true. The smaller it is, the more convincing is the rejection of the null hypothesis. It indicates the strength of evidence for say, rejecting the null hypothesis H0, rather than simply concluding "Reject H0' or "Do not reject H0"." 我怎么理解成p值越小,H0假设非真的可能性就越大啊? 另外,想请教一下p值和alpha的大小可比较吗?
yihui 我从来都认为在假设检验里,alpha是可有可无的(这个概念只有在计算置信区间的时候有用),因为它是主观确定的,P值是由统计量计算出来的,有了P值什么都好说,为什么非要拿P值和所谓的alpha比较一下,谁能确保P=0.20就不显著,谁又能确保P=0.01就显著?
hogwild 我认为alpha是有必要存在的,至少理论上需要。 我的理解是,alpha 是一个判断者在对数据作出判断前,对是否接受H0假设所给出的界限,如果通过处理样本数据,得出其发生的概率也就(是p值)<alpha,那么按照事前制定的界限,判断者应该拒绝H0。
曼妮 p值的确就是possibility,大学时代从没弄懂t, p的分别,只是对那铺天盖地的查表深恶痛绝,仅凭直觉就觉得这绝不是人类社会发展的前沿正道 (那会混得厉害,所以也不排除学得不好是源于自身因素)。最近为了研究的课程和论文不得不再次涉水统计学领域,偶然在谢大网页里看到了p的解释,跟楼主异曲同工,简单又明白,possibility可不就是风险可能么? 我那层心眼上糊了多年的窗户纸啊,终于破了~
gaotao 偶然撞进了老帖子~不过确实是好贴! 看完帖子让我不禁的想起同学曾问过我的一个问题,他说有个统计的书这样评价假设检验的: “在设定一个检验的原假设和决策规则是,我们在看到由包含随机成分的过程产生的样本数据之前就定义了检验条件。因此,如果在定义原假设和备择假设之前看到了数据,我们就不再有设定的错误概率,并且由拒绝原假设得出的“强有力的证据”的概念不再有效。例如,如果在看到P-值之后再确定检验的显著性水平,我们就不能用概率术语解释结果。” 这里面就谈到了<bblatex>/alpha</bblatex>值与P值的关系,不知道大家对此句话有何看法?
jiao_taishan 小弟以为,实际推断原理认为“小概率事件”在一次实验中不可能发生,而alpha就是“小概率”事件小的标准(虽然是人为确定的,但是现在都默认0.05和0。01了),p值是原假设为真时统计量取样本值的概率,如果这个概率(p)比alpha小,那么就认为小概率事件发生了,违背了实际推断原理,从而拒绝原假设。 请各位大侠批评指正
autoban 回复 第29楼 的 g.tower:It is still possible to control type I errors after seeing the p-value, as long as the p-value is later adjusted, which is the case for many multiple testing methods.