huangsx05 因变量为驾驶员是否服从交通信息板提供的改道建议, 自变量有年龄,性别,驾龄,驾驶频率,对信息版的留意程度,信任程度,对信息板的内容偏好,信息类型偏好等等。 采用Backward:conditional 的建模方法,最后的模型中没有包括内容偏好着一个变量,模型预测正确率为79.6%; 随后再强制加入内容偏好这一个变量,新的模型预测正确率为83%。 按理来说内容偏好着一个变量是因为相关度不高才被删除的,那么强制加入以后的模型精确度应该要低一些,可是为什么预测的正确率反而上升了? 期待大牛们指教,非常感谢!
huangsx05 [quote]引用第3楼panaceapan于2009-05-22 11:02发表的 : 相关度不高不代表强制加入就会减低预测正确的概率。 如果你把所有相关的变量都放在模型里,那个概率一定很高。但是我们只想要一些显著的变量。 两件事情并不矛盾。 [/quote] 那就是说,决定变量是否留在模型里的主要是sig值?sig值大的变量剔除出模型?
huangsx05 [quote]引用第4楼touyo于2009-05-22 15:50发表的 : 只保留显著的变量就可以了。变量越多,解释能力当然会变强。 [/quote] 那就是说,决定变量是否留在模型里的主要是sig值?sig值大的变量剔除出模型?