• R语言
  • 不明白统计中的标准误怎么算的

标准差很容易理解,总体和样本都可以计算。

但是标准误似乎是取样过程中产生的。我们实际碰到的问题都是分析样本,因此都涉及到取样误差的产生。问题是如何计算这个抽样误差呢?在不同的统计分析里面似乎有不同的计算方法,把我搞的头都大了。谁能把它说清楚吗?
   标准差是样本的标准差,而标准误也是一种标准差,只是其“样本”是均值,至于公式怎写就不用说了。

   我们用样本的标准差作为尺度,来描述或衡量分布。

(鄙人在本论坛贴过一幅维也纳的一个大学网页上关于标准差的漫画,http://cos.name/bbs/read.php?tid=15608

标准误作为一种特殊的标准差,也是用来衡量均值的分布的,它也有所谓2西格玛或3西格玛区间。统计软件中往往输出标准误时给出它的95%置信区间(大约2西格玛区间)。



你可以用R语言做一个实验。

A  发生正态随机数100个(多少可自定)。画出其分布图。计算其均值。

B 把 A 做 100遍,把100个均值存起来,画出均值的分布图。



于是我们发现均值的分布图比样本的分布要尖得多,其标准差(均值的标注差,也就是标准误)比样本标准差要小得多。你可以验算一下,标准差和标准误之间的数量关系,是不是大体上符合标准误的公式。
这个我知道,统计学书上也是这么说的。可是我发现很多分析里面都涉及到标准误,比如线性回归的回归系数的标准误,样本率的标准误,等等。我就想不通这些是怎么算的,计算它们的公式是如何得到的。望高手指点!
1 年 后

就是嘛 我也不知道,请教高手啊

就是嘛 我也不知道,请教高手啊

标准误更小,是标准差除以样本量的平方根。

可以参考这里:

http://encyclopedia.thefreedictionary.com/Standard+error+(statistics)