yihui [未知用户] 经济学上的期望是什么概念我不确定,统计学上的期望往往隐含着“样本量无穷大”的意思。关于这个话题,本来还有另一个值得写的话题t检验与Satterthwaite近似,但估计写出来就更没有人看了。
Cloudly [未知用户] 经济学上的期望定义应该和基本概率论一致,离散变量是概率的加权平均值,连续变量就是那个积分。只是经济学额外的加上一个效用函数,所以期望收益≠期望效用,如果效用函数不是纯线性的话。
Jiazhong Guo 读罢此文还是受用,交流几点看法: 1.“我们知道连续变量取任何一个值的概率都是0”坦率地说,我没有学过这句话,我只记得是非常小,当然你额可以说非常小可以近似为0!(R一例dnorm(0)[1] 0.3989423)不知哥们你如何解释呢?我个人理解连续型随机变量,只是借用了数学中函数连续性的概念,强调了在定义域内的无限分割,在计算上可以采用积分而已!很多时候即使在直接的测定刻度下,观察值的范围并不大! 2.statistical significance是被很多专业的人翻译为“统计学意义”。可能我孤陋寡闻了,你不说我还不知道有这种译法!我从学习统计学开始,就是统计显著性。不知道那些哥们,都看的是什么大作! 3. 我认为permutation,与bootstrap都是直接实现了统计推断的哲学思想!当然,这主要是依赖于计算机的强大!今天的我们被统计学中的数学所固化,所以习惯了常用的统计分布函数! 4.统计推断本质上是一个决策过程,准确一点是基于概率或随机数学的决策过程!在一次统计推断中,在模型确定的情况下,究竟倾向于减少那类错误的发生率在于本人!其实统计推断效率提高的过程,是在统计模型建立的阶段,模型错误,再好的戏估计也出不来,而这又依赖于专业或者经验!
Jiazhong Guo [未知用户] 密度函数的全称是probability density function, 另外还有probability cumulative function or probability mass function! 那这几个基本定义的概率二字还是不能去掉的吧! 。。。。。。可能你的是对的吧!
Jiazhong Guo [未知用户] 我赞成楼上的观点!应该来说likelihood本是自成一家,处于frequentist 与bayesian以外!但是被许多人所误解,毕竟大部分教科书介绍likelihood的时侯是通过密度函数引入的,容易误解!当然他们也是亲戚,频率学派最早只是提出了基于频率的参数估计优良特性是什么!但实际上并没有给出相应的方法,而Fisher在这方面做了大量的工作!
yaox009 以前上数理统计的时候,老师说,数学是科学,统计是艺术;科学有对错,艺术只有好坏。 后来,看到 Rao 的那本《统计与真理》越来越体会到这句话的内涵了。 逻辑上,数学是演绎推理,统计是归纳推理。我想,这可能是最本质的区别了吧。
bootstrap 边看边评论 关于连续随机变量的似然问题,那场争论的确发人深省,不过在第一次接触这个概念时,对我来说却很自然(牛人才会去争论。。。),说白了就是中值定理作近似,只不过大家都消去了一个公共的因子——矩阵切条的宽边长度 实际上,过分强调样本点的“精确值”有时是有害的。这里我要稍做解释。我们在计算似然时,总是使用似然函数在“样本点上”的取值,但实际上样本点有测量误差,从这个角度上看这样做就是有问题的,但这一般不会导致大的麻烦。让人崩溃的情况却不少,其中之一就是我最近在做的所谓conditional inference。这玩意Fisher在低维情形下玩过,列联表里的Fisher精确检验就是一例,能够消去nuisance parameter(参考sufficient statistic),在不容易找到枢轴变量时,确实是很漂亮的解决方案,power也很不错。 但问题来了,如果需要condition的nuisance para比较多时,这时相当于y和X之间需要满足很多等式限制条件(即使许多时候是线性约束),这就使得找到这样的y极其困难,condition方法的应用也就举步维艰。按我构造的例子,仅控制1个5水平的离散变量,现有的大部分方法就失效了,因为找不到这样的y(或者效率极低)。精确满足多个等式约束啊同学,太坑爹了。 所以似然的精确程度是浮云,过得去就行了~
jxliang 这篇是好文章,值得细细品读……看了最大的感受有三点: 一、还是得回过头来好好考虑概率是什么,数学期望是什么。不少初等的书把概率定义成可能性大小的量度,具体怎么度量,看不见摸不着,就一个数,学习的时候糊弄一下就过去了,也没细究。学了测度论以后,当然就不满足这样的定义。(顺便一提,我觉得Kolmogorov的贡献非常重要,公理化的概率论为我们提供了一套逻辑上自洽的概率体系,不管大家在形而上学的层面怎么看概率,至少都同意他这套运算规则,而概率论中的全部结论,都只是依赖于公理中的约定,而不是某些经验上的东西。)然而,说到底,要直观感受表示可能性大小的“概率”而不是数学对象的“概率”,最后还是得回到初等的“频率”的概念,概率可以看成是服从伯努利分布的随机变量的数学期望,这要回到谢老师的论述:期望往往是“样本量无穷大”你才能隐约看到的东西。我能想象到的最直观的感知概率的办法就是样本量无穷大的时候的频率,这件事情能够办到的基础是“大数定律”,而且我认为,这一定律就和物理定律一样是关于客观世界的,与数学中证明的“大数定律”享用同一个名字,但意思不一样。 二、即使模糊地去理解概率,有些事情发生的可能性是出乎我们意料的大,只是我们主观地认为这件事情发生的可能性很小。50个人存在两人同一天生日的故事就不说了。本文也讲了这样一个例子:一个iid服从标准正态的样本(样本量为30),对于每一个观测值,绝对值在2以下的概率是0.9544997,30个的绝对值在2以下的概率却是0.9544997^30= 0.2473283,随便的整一组标准正态的数据,有超过四分之三(1-0.2473283= 0.7526717)的概率看到“离群值”。 另外,人把握随机的东西是有一定困难的,Varian的中级微观经济学讲过一个例子:网球选手应该随机地变换发球区域,使得对手很难猜。一些研究表明,网球高手们确实试图随机发球,但他们的表现是“矫枉过正”,表现得过度随机了。 三、本文中“万能的P值”一节实际上也从某个角度反映了经济学方面经验研究的一些现象。尤其在国内,很多研究都让人读后感到不可信。 以上纯粹是个人不成熟的想法,请谢老师指正……
sihaifang 真理没有缩水,而是探索真理的方法出现了迷失。以金融市场为例,由于人们对时间序列的执着,想当然地认为对时间采取固定间隔的划分可以窥视数据的全貌,其结果就是上帝在掷骰子。 这个同学的理解非常好:“以金融市场为例,由于人们对时间序列的执着,想当然地认为对时间采取固定间隔的划分可以窥视数据的全貌”~~~宏观数据之时间序列:也是变频的~~
wwwscopin "把整体的第一类错误率控制在某个alpha值之下,就意味着单个检验必须更“严格”,因此我们不能再以0.05去衡量每个检验是否显著,而要以更小的值去衡量,这就是P值的调整,老办法有Bonferroni等方法。" Here the "更小" should be "更大"...