不能说拟合残差是一般的boosting方法,boosting的思想是每一个基分类器纠正前一个基分类器的错误,至于纠正的方式不同所以有不同的boosting算法,比如通过调整样本权值分布训练基分类器对应的AdaBoost,通过拟合前一个基分类器与目标值的误差的负梯度(也不能说是残差,只有在损失函数是平方损失时才能叫残差,一般的损失函数是近似残差)来学习下一个基分类器的方法是gradient boosting