爱不需要表达
请教一个问题:
多重共线性在回归分析中是经常遇到的问题,我们可以通过很多方法判断出它的存在,这时候我们是不是经常使用“删除变量法”——即对因变量贡献不大的predictor剔除?但是很多时候由于各种因素都要考虑到,不能轻易剔除这(些)变量,从而多重共线性问题得不到解决,从而OLS最小二乘法无法使用或使用效果不佳。。。
请问这时可以用什么方法来分析该回归模型,并对参数进行估计?当今流行的做法,和处理多重共线性的方法有是什么呢?
谢谢!!
dingpeng
变量过多,多重共线性不可避免。
选择越少的变量作解释,是通常的手法。
但是实用的人又迫切的知道所有变量对结果的影响,舍不得丢掉变量。这种目的几乎是不能得到满足的。
事实上,在多重共线性很强的时候,回归系数的估计非常不稳定,或者说方差过大,得到的估计意义其实并不大;用这样的结果做解释,很多时候得到很荒唐的结果。比如,经常得到的系数连正负号都难以解释,严重违反常识。
dasong
PCR PLS 或是 岭回归
爱不需要表达
请问:
如果用bootstrap估计回归系数,那么能否对multicolliearity的减弱有积极作用呢?bootstrap究竟对多重回归问题有何意义呢?不知谁了解这一块儿的内容。。。
谢谢!
dasong
bootstrap的目的不是估计回归系数
dasong
bootstrap的目的不是减少multicollinearity
dasong
要减少multicollinearity,或者选变量,或者用有偏估计
爱不需要表达
那bootstrap究竟对多重回归问题有何意义呢?
我只知道可以bootstrap pairs & bootstrap sampling,都是对回归系数的估计,这点在Efron的书中有介绍。。。