8 天 后
[未知用户] 是之前弄错了,见谅啊:)
最后一句的典故来自《悟空传》啊。隐马尔科夫链这次r会议上也有讲啊
“JS估计量比ML误差小”可能得说清楚是在均方误差(MSE)意义下小,JS可以在整体MSE下打败ML,对每个参数自身来说,JS估计量不一定是MSE最小的。

谢谢杨灿一如既往的好文!

公式(6)漏了z变量zu2+λu2\|z - u \|^2 + \lambda \|u\|^2. 🙂

有一疑惑:Tweedie’s formula中只要求z的边缘分布 那么这个边缘分布如何求呢?也拆成似然和先验再积分吗?那如果一个参数对n个样本怎么求n个z的分布呢?求解答~
[未知用户] 已经观察的所有的z,画出histogram, 每个bin的counts 正比于 N*d*f(z),d为bin的宽度。拟合Poisson regression,就可以得到f(z) .详见http://www-stat.stanford.edu/~omkar/329/chapter5.pdf Section 5.2
[未知用户] 真心秒回啊 感谢了!不知我理解的是否正确:如果我得参数只有均值一个不是n个 而样本z有n个这样的话JS估计结果和Tweedie’s formula的结果直接加权平均就可以了吗?
7 天 后
这是统计青年中的文艺青年啊。。。开始发稿的时候还想了很久EB是
看到了您的文章,对Tweedie’s formula 还没弄懂,想向您咨询一下,你能发个邮件给我吗?邮件可是说的详细一点
    4 天 后
    [未知用户] 收回原来很2的问题。。。现在基本搞清楚了 这篇文章的确为我们开了一个好头 再赞作者~~~
    8 天 后
    为帮助大家理解Tweedie's formula,来一个R code吧。
    library(splines)
    z = c(rnorm(10000), rnorm(500,2,1),rnorm(500,-2,1)) 
    bins = seq(min(z)-.1,max(z)+.1, len = 100)
    h = hist(z, bins, plot = F)
    x = h$m
    g  = glm(h$c~ns(x,df=7),family = poisson)
    ss = splinefun(x,log(dnorm(x)/g$fit),method = "natural")
    mu = -ss(z,deriv=1)
    plot(z,mu)
    1 个月 后
    暑假再度此文,一股清凉愉悦之气呀!期待把忍痛割爱的FDR补上一篇:)
    1 个月 后
    作者的理解实在精准、透彻,回味无穷!!!“个人认为比较成功的有 Elastic net[15] 和 penalty[16]。”能否就“Elastic net”讲解一番呢?
    [未知用户] 简单说:L1是lasso,L2是ridge regression,介于二者之间的(或者说混合)即为Elastic Net
    [未知用户] 有点过于简单了,想对Elastic Net有个全面的了解,目前对弹性网有了个基础认识,希望有个像作者这样的对Elastic Net做一个精炼、精准的评述!