交叉验证(cross-validation), 不仅在决策树里,在其他的机器学习算法中也有涉及。一般称为*折交叉验证,举个例子说的话比如一般用的5折交叉验证,就是在做模型的时候把training set切为5份,每次在4份上做训练,在剩下的一份上做预测,这样相当于做了5次训练和预测。你可以分别用判断准确率的指标衡量这五次的预测结果,也可以用它们来改进模型,比如对树剪枝防止过拟合什么的。交叉验证的代码可以自己写,这种方法可以推广到很多模型上,帮助你训练模型和检验模型稳健性之类的。
我的理解比较粗浅,期待更严谨的解释~