是一种可以用来减小监督式学习中偏差的机器学习算法。一组“弱学习者”的集合能否生成一个“强学习者”?弱学习者一般是指一个分类器,它的结果只比随机分类好一点点;强学习者指分类器的结果非常接近真值。
Gradient Boosting Decision Tree,全名叫梯度提升决策树,使用的是Boosting的思想。
gbdt通过多轮迭代,每轮迭代产生一个弱分类器,每个分类器在上一轮分类器的残差基础上进行训练。对弱分类器的要求一般是足够简单,并且是低方差和高偏差的。因为训练的过程是通过降低偏差来不断提高最终分类器的精度。
通过采用加法模型(即基函数的线性组合),以及不断减小训练过程产生的残差来达到将数据分类或者回归的算法;
优点:
局限性:
GBDT通过多轮迭代,每轮迭代产生一个弱分类器,每个分类器在上一轮分类器的残差基础上进行训练。对弱分类器的要求一般是足够简单,并且是低方差和高偏差的。因为训练的过程是通过降低偏差来不断提高最终分类器的精度。
XGBoost本质上还是一个GBDT,但是力争把速度和效率发挥到极致,所以叫X (Extreme) GBoosted。两者都是boosting方法。
问题1:预测一家人对电子游戏的喜好程度
就这样,训练出了2棵树tree1和tree2,类似之前gbdt的原理,两棵树的结论累加起来便是最终的结论,所以小孩的预测分数就是两棵树中小孩所落到的结点的分数相加:2 + 0.9 = 2.9。爷爷的预测分数同理:-1 + (-0.9)= -1.9。
XGBoost的核心算法思想:
个人理解:
机器学习算法GBDT:https://www.cnblogs.com/bnuvincent/p/9693190.html
终于有人说清楚了–XGBoost算法:https://juejin.im/post/5d2590e1e51d45106b15ffaa
史上最详细的XGBoost实战:https://zhuanlan.zhihu.com/p/31182879
手把手教写出XGBoost实战程序:https://juejin.im/post/5a1bb29e51882531ba10aa49
XGBoost官方文档:https://xgboost.readthedocs.io/en/latest/index.html XGBoost中文文档地址:http://xgboost.apachecn.org/cn/latest/ 床长人工智能教程:https://www.captainbed.net/