Jiazhong Guo [未知用户] 密度函数的全称是probability density function, 另外还有probability cumulative function or probability mass function! 那这几个基本定义的概率二字还是不能去掉的吧! 。。。。。。可能你的是对的吧!
Jiazhong Guo [未知用户] 我赞成楼上的观点!应该来说likelihood本是自成一家,处于frequentist 与bayesian以外!但是被许多人所误解,毕竟大部分教科书介绍likelihood的时侯是通过密度函数引入的,容易误解!当然他们也是亲戚,频率学派最早只是提出了基于频率的参数估计优良特性是什么!但实际上并没有给出相应的方法,而Fisher在这方面做了大量的工作!
yaox009 以前上数理统计的时候,老师说,数学是科学,统计是艺术;科学有对错,艺术只有好坏。 后来,看到 Rao 的那本《统计与真理》越来越体会到这句话的内涵了。 逻辑上,数学是演绎推理,统计是归纳推理。我想,这可能是最本质的区别了吧。
bootstrap 边看边评论 关于连续随机变量的似然问题,那场争论的确发人深省,不过在第一次接触这个概念时,对我来说却很自然(牛人才会去争论。。。),说白了就是中值定理作近似,只不过大家都消去了一个公共的因子——矩阵切条的宽边长度 实际上,过分强调样本点的“精确值”有时是有害的。这里我要稍做解释。我们在计算似然时,总是使用似然函数在“样本点上”的取值,但实际上样本点有测量误差,从这个角度上看这样做就是有问题的,但这一般不会导致大的麻烦。让人崩溃的情况却不少,其中之一就是我最近在做的所谓conditional inference。这玩意Fisher在低维情形下玩过,列联表里的Fisher精确检验就是一例,能够消去nuisance parameter(参考sufficient statistic),在不容易找到枢轴变量时,确实是很漂亮的解决方案,power也很不错。 但问题来了,如果需要condition的nuisance para比较多时,这时相当于y和X之间需要满足很多等式限制条件(即使许多时候是线性约束),这就使得找到这样的y极其困难,condition方法的应用也就举步维艰。按我构造的例子,仅控制1个5水平的离散变量,现有的大部分方法就失效了,因为找不到这样的y(或者效率极低)。精确满足多个等式约束啊同学,太坑爹了。 所以似然的精确程度是浮云,过得去就行了~
jxliang 这篇是好文章,值得细细品读……看了最大的感受有三点: 一、还是得回过头来好好考虑概率是什么,数学期望是什么。不少初等的书把概率定义成可能性大小的量度,具体怎么度量,看不见摸不着,就一个数,学习的时候糊弄一下就过去了,也没细究。学了测度论以后,当然就不满足这样的定义。(顺便一提,我觉得Kolmogorov的贡献非常重要,公理化的概率论为我们提供了一套逻辑上自洽的概率体系,不管大家在形而上学的层面怎么看概率,至少都同意他这套运算规则,而概率论中的全部结论,都只是依赖于公理中的约定,而不是某些经验上的东西。)然而,说到底,要直观感受表示可能性大小的“概率”而不是数学对象的“概率”,最后还是得回到初等的“频率”的概念,概率可以看成是服从伯努利分布的随机变量的数学期望,这要回到谢老师的论述:期望往往是“样本量无穷大”你才能隐约看到的东西。我能想象到的最直观的感知概率的办法就是样本量无穷大的时候的频率,这件事情能够办到的基础是“大数定律”,而且我认为,这一定律就和物理定律一样是关于客观世界的,与数学中证明的“大数定律”享用同一个名字,但意思不一样。 二、即使模糊地去理解概率,有些事情发生的可能性是出乎我们意料的大,只是我们主观地认为这件事情发生的可能性很小。50个人存在两人同一天生日的故事就不说了。本文也讲了这样一个例子:一个iid服从标准正态的样本(样本量为30),对于每一个观测值,绝对值在2以下的概率是0.9544997,30个的绝对值在2以下的概率却是0.9544997^30= 0.2473283,随便的整一组标准正态的数据,有超过四分之三(1-0.2473283= 0.7526717)的概率看到“离群值”。 另外,人把握随机的东西是有一定困难的,Varian的中级微观经济学讲过一个例子:网球选手应该随机地变换发球区域,使得对手很难猜。一些研究表明,网球高手们确实试图随机发球,但他们的表现是“矫枉过正”,表现得过度随机了。 三、本文中“万能的P值”一节实际上也从某个角度反映了经济学方面经验研究的一些现象。尤其在国内,很多研究都让人读后感到不可信。 以上纯粹是个人不成熟的想法,请谢老师指正……
sihaifang 真理没有缩水,而是探索真理的方法出现了迷失。以金融市场为例,由于人们对时间序列的执着,想当然地认为对时间采取固定间隔的划分可以窥视数据的全貌,其结果就是上帝在掷骰子。 这个同学的理解非常好:“以金融市场为例,由于人们对时间序列的执着,想当然地认为对时间采取固定间隔的划分可以窥视数据的全貌”~~~宏观数据之时间序列:也是变频的~~
wwwscopin "把整体的第一类错误率控制在某个alpha值之下,就意味着单个检验必须更“严格”,因此我们不能再以0.05去衡量每个检验是否显著,而要以更小的值去衡量,这就是P值的调整,老办法有Bonferroni等方法。" Here the "更小" should be "更大"...
John-john_fu "让多个检验全都不犯错和单个检验不犯错(指第一类错误)显然是有区别的,比如假设所有的检验都是独立的,一个检验不犯错的概率是95%,两个都不犯错的概率就变成了95% * 95% = 90.25%,检验越多,不犯错的概率就越小。把整体的第一类错误率控制在某个alpha值之下,就意味着单个检验必须更“严格”,因此我们不能再以0.05去衡量每个检验是否显著,而要以更小的值去衡量" 这一段与我们的直觉相反, 理论上看起来没错, 但解释错了: 多个检验都不犯错的概率变小是指如果事实是A, 但越多的检验方法,越有可能把事实为A否定掉. 反过来说如果多个检验方法都通过了A(95%的置信水平), 则A为事实的可能性越大(1-0.05*0.05*0.05...)