qqbst 回复 第2楼 的 肖楠:谢谢啊。但是还是有些不明白 mboost是建立在基分类器上的boost算法吧?看参考文献有个是l2boost的,l2boost是结合component-wise的基分类器和forward stage算法上的吧?那个sparse boost好像是在目标函数上对l2算法的改进,但是为什么每太看明白,说效果类似于nonnegative garrote,可以进行一定的变量选择吧?mboost可以实现吗?还有就是sparse boost为什么目标函数不一样就可以进行变量选择啊?
qqbst 回复 第2楼 的 肖楠:不好意思,l2boost做变量选择的原理现在大概明白了,sparse boosting在损失函数上的改进使得不同的参数受到的影响不一样了。那在mboost上怎么实现l2boost和sparsel2boost呢?我看mboost上只有基分类器的选择,没有可以选择损失函数啊?