我是这么理解的,adaboost是前向分布算法+指数损失函数,gbdt是前向分布算法在较难优化的损失函数情况时的一种近似的优化,用损失函数的负梯度作为残差的近似值,用到泰勒一阶展开,xgb支持任意损失函数,只要一阶二阶可导即可,用到泰勒二阶展开。