如果已知E(a)=p+qE(a)=p+q

但是又知E(q)=q0E(q)=q_0

那么什么条件下可以得到以下结论呢?E(a)=p+q0E(a)=p+q_0

Ihavenothing 我觉得你把我纠结的地方一下就指出来了……
一楼贴出来的不是问题的全部,我再整理一下看看问题到底出在哪里。

其实我一开始知道的是E(aX,Y)=p+qE(a \mid X, Y)=p+q但这是在拥有全部信息的情况下。qq是一个关于XX的函数。

现在我想在不知道X的情况下,仍然对aa进行估计。所以此时qq是一个变量,拥有期望q0q_0
那我应该怎么去计算aa的期望呢?

可能我还没完全说清楚。但是欢迎拍砖,帮助我把问题说得更清楚。

感觉你的问题和 law of Iterated Expectations 有关.

把你的话翻一下, E(aX)E(a | X) 是 conditional on X 的条件期望, 你想在 "不知道X的情况下,仍然对a进行估计", 也就是 E(a).
可以套用 E(a)=E(E(aX))E(a) = E(E(a | X)) 公式, 最外层的 E 是对 X 求期望; 里层的 E(a | X) 是关于 X 的函数, 所以也是个随机变量.

    Ihavenothing我觉得这么说更接近我想问的:qq是关于XX的函数,也是aa的一部分。在推导aa的性质的时候,会假定开启上帝视角,所以XX可以视为已知的(conditioning on)。此时,qq就是一个常量。

    但是实际情况下,需要对aa进行估计,比如说用估计量a^\hat{a} 去估计aa,而估计量a^\hat{a}的构造会用到qq

    估计量a^\hat{a}的性质好不好呢?这个是需要证明的。但是在证明的过程中,qq就不再是一个常数了,因为它是关于XX的,而XX是一个变量。但是能知道qq的某些性质,比如E(q)=q0E(q)=q_0。那么我如何能将qq的期望是q0q_0这个信息应用到比如说E(a^)E(\hat{a})的证明中去呢?

    albert-R 你提到迭代期望定律,这个对我很有启发性。
    但是对XX求期望不会有结果,因为XX就是用户给定的数据了,每一次都会不一样的。

    Heterogeneity 更改标题为「如何将待估计常数的性质运用到估计量性质的推导中
    8 天 后

    又整理了一下思路,重新问一遍:
    存在不可观测常量θ\theta。为了估计θ\theta,构造估计量θ^=f(λ)\hat{\theta}=f(\lambda),其中λ\lambda是关于可观测数据XX的函数。

    我想验证θ^\hat{\theta}θ\theta是否无偏。推导发现E(θ^X)=g(λ)E(\hat{\theta} \mid X)=g(\lambda),此时g(λ)g(\lambda)无法再化简。

    但同时又发现基于某些假设下,E(λ)=λ0E(\lambda)=\lambda_0,而g(E(λ))=g(λ0)=θg(E(\lambda))=g(\lambda_0)=\theta。经蒙特卡罗模拟验证,这个假设基本上是合理的,θ^\hat{\theta}的样本均值非常接近θ\theta

    所以如何将E(λ)=λ0E(\lambda)=\lambda_0这个信息运用到估计量θ^\hat{\theta}性质的推导中呢?我苦于E(θ^X)E(\hat{\theta} \mid X)的推导过程中只出现了λ\lambda而没有出现E(λ)E(\lambda),所以无法实现E(λ)=λ0E(\lambda)=\lambda_0的惊险一跃。

      Heterogeneity
      开个新帖来问可能更好些,在新帖里 “ backreference” 回这个帖子就可以了。老牌子不一定会被翻。

        Liechi 按你说的方法试一下
        不过只要一回复就又顶到论坛最上方了,我觉得现在再开一个同主题或者近似主题的贴可能观感不佳。要不过一天再试试。