1. XGBoost算法

XGBoost是陈天奇等人开发的一个开源机器学习项目,高效地实现了GBDT算法并进行了算法和工程上的许多改进,被广泛应用在Kaggle竞赛及其他许多机器学习竞赛中并取得了不错的成绩。XGBoost本质上还是一个GBDT,但是力争把速度和效率发挥到极致,所以叫X (Extreme) GBoosted,包括前面说过,两者都是boosting方法。XGBoost是一个优化的分布式梯度增强库,旨在实现高效,灵活和便携。 它在Gradient Boosting框架下实现机器学习算法。 XGBoost提供了并行树提升(也称为GBDT,GBM),可以快速准确地解决许多数据科学问题。 相同的代码在主要的分布式环境(Hadoop,SGE,MPI)上运行,并且可以解决超过数十亿个样例的问题。XGBoost利用了核外计算并且能够使数据科学家在一个主机上处理数亿的样本数据。最终,将这些技术进行结合来做一个端到端的系统以最少的集群系统来扩展到更大的数据集上。Xgboost以CART决策树为子模型,通过Gradient Tree Boosting实现多棵CART树的集成学习,得到最终模型。下面我们来看看XGBoost的最终模型构建:

引用陈天奇的论文,我们的数据为:集成学习算法11——XGBoost和LightGBM - 图1%5Cright%5C%7D%5Cleft(%7C%5Cmathcal%7BD%7D%7C%3Dn%2C%20%5Cmathbf%7Bx%7D%7Bi%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7Bm%7D%2C%20y%7Bi%7D%20%5Cin%20%5Cmathbb%7BR%7D%5Cright)#card=math&code=%5Cmathcal%7BD%7D%3D%5Cleft%5C%7B%5Cleft%28%5Cmathbf%7Bx%7D%7Bi%7D%2C%20y%7Bi%7D%5Cright%29%5Cright%5C%7D%5Cleft%28%7C%5Cmathcal%7BD%7D%7C%3Dn%2C%20%5Cmathbf%7Bx%7D%7Bi%7D%20%5Cin%20%5Cmathbb%7BR%7D%5E%7Bm%7D%2C%20y%7Bi%7D%20%5Cin%20%5Cmathbb%7BR%7D%5Cright%29&id=hayai)

(1) 构造目标函数:

假设有K棵树,则第i个样本的输出为集成学习算法11——XGBoost和LightGBM - 图2%3D%5Csum%7Bk%3D1%7D%5E%7BK%7D%20f%7Bk%7D%5Cleft(%5Cmathrm%7Bx%7D%7Bi%7D%5Cright)%2C%20%5Cquad%20f%7Bk%7D%20%5Cin%20%5Cmathcal%7BF%7D#card=math&code=%5Chat%7By%7D%7Bi%7D%3D%5Cphi%5Cleft%28%5Cmathrm%7Bx%7D%7Bi%7D%5Cright%29%3D%5Csum%7Bk%3D1%7D%5E%7BK%7D%20f%7Bk%7D%5Cleft%28%5Cmathrm%7Bx%7D%7Bi%7D%5Cright%29%2C%20%5Cquad%20f%7Bk%7D%20%5Cin%20%5Cmathcal%7BF%7D&id=KHrpP),其中,集成学习算法11——XGBoost和LightGBM - 图3%3Dw%7Bq(%5Cmathbf%7Bx%7D)%7D%5Cright%5C%7D%5Cleft(q%3A%20%5Cmathbb%7BR%7D%5E%7Bm%7D%20%5Crightarrow%20T%2C%20w%20%5Cin%20%5Cmathbb%7BR%7D%5E%7BT%7D%5Cright)#card=math&code=%5Cmathcal%7BF%7D%3D%5Cleft%5C%7Bf%28%5Cmathbf%7Bx%7D%29%3Dw%7Bq%28%5Cmathbf%7Bx%7D%29%7D%5Cright%5C%7D%5Cleft%28q%3A%20%5Cmathbb%7BR%7D%5E%7Bm%7D%20%5Crightarrow%20T%2C%20w%20%5Cin%20%5Cmathbb%7BR%7D%5E%7BT%7D%5Cright%29&id=zUCoB)

因此,目标函数的构建为:

集成学习算法11——XGBoost和LightGBM - 图4%3D%5Csum%7Bi%7D%20l%5Cleft(%5Chat%7By%7D%7Bi%7D%2C%20y%7Bi%7D%5Cright)%2B%5Csum%7Bk%7D%20%5COmega%5Cleft(f%7Bk%7D%5Cright)%0A#card=math&code=%5Cmathcal%7BL%7D%28%5Cphi%29%3D%5Csum%7Bi%7D%20l%5Cleft%28%5Chat%7By%7D%7Bi%7D%2C%20y%7Bi%7D%5Cright%29%2B%5Csum%7Bk%7D%20%5COmega%5Cleft%28f%7Bk%7D%5Cright%29%0A&id=g0pe1)

其中,集成学习算法11——XGBoost和LightGBM - 图5#card=math&code=%5Csum%7Bi%7D%20l%5Cleft%28%5Chat%7By%7D%7Bi%7D%2C%20y%7Bi%7D%5Cright%29&id=sQTaw)为loss function,![](https://g.yuque.com/gr/latex?%5Csum%7Bk%7D%20%5COmega%5Cleft(f%7Bk%7D%5Cright)#card=math&code=%5Csum%7Bk%7D%20%5COmega%5Cleft%28f_%7Bk%7D%5Cright%29&id=Mn3ez)为正则化项。

(2) 叠加式的训练(Additive Training):

给定样本集成学习算法11——XGBoost和LightGBM - 图6集成学习算法11——XGBoost和LightGBM - 图7%7D%20%3D%200#card=math&code=%5Chat%7By%7D_i%5E%7B%280%29%7D%20%3D%200&id=V1i0R)(初始预测),集成学习算法11——XGBoost和LightGBM - 图8%7D%20%3D%20%5Chat%7By%7D_i%5E%7B(0)%7D%20%2B%20f_1(x_i)#card=math&code=%5Chat%7By%7D_i%5E%7B%281%29%7D%20%3D%20%5Chat%7By%7D_i%5E%7B%280%29%7D%20%2B%20f_1%28x_i%29&id=gm2w7),集成学习算法11——XGBoost和LightGBM - 图9%7D%20%3D%20%5Chat%7By%7D_i%5E%7B(0)%7D%20%2B%20f_1(x_i)%20%2B%20f_2(x_i)%20%3D%20%5Chat%7By%7D_i%5E%7B(1)%7D%20%2B%20f_2(x_i)#card=math&code=%5Chat%7By%7D_i%5E%7B%282%29%7D%20%3D%20%5Chat%7By%7D_i%5E%7B%280%29%7D%20%2B%20f_1%28x_i%29%20%2B%20f_2%28x_i%29%20%3D%20%5Chat%7By%7D_i%5E%7B%281%29%7D%20%2B%20f_2%28x_i%29&id=bJ39Q)…….以此类推,可以得到:集成学习算法11——XGBoost和LightGBM - 图10$ ,其中, 集成学习算法11——XGBoost和LightGBM - 图11 为前K-1棵树的预测结果,集成学习算法11——XGBoost和LightGBM - 图12 为第K棵树的预测结果。

因此,目标函数可以分解为:

集成学习算法11——XGBoost和LightGBM - 图13%7D%3D%5Csum%7Bi%3D1%7D%5E%7Bn%7D%20l%5Cleft(y%7Bi%7D%2C%20%5Chat%7By%7D%7Bi%7D%5E%7B(K-1)%7D%2Bf%7BK%7D%5Cleft(%5Cmathrm%7Bx%7D%7Bi%7D%5Cright)%5Cright)%2B%5Csum%7Bk%7D%20%5COmega%5Cleft(f%7Bk%7D%5Cright)%0A#card=math&code=%5Cmathcal%7BL%7D%5E%7B%28K%29%7D%3D%5Csum%7Bi%3D1%7D%5E%7Bn%7D%20l%5Cleft%28y%7Bi%7D%2C%20%5Chat%7By%7D%7Bi%7D%5E%7B%28K-1%29%7D%2Bf%7BK%7D%5Cleft%28%5Cmathrm%7Bx%7D%7Bi%7D%5Cright%29%5Cright%29%2B%5Csum%7Bk%7D%20%5COmega%5Cleft%28f%7Bk%7D%5Cright%29%0A&id=RAJUz)

由于正则化项也可以分解为前K-1棵树的复杂度加第K棵树的复杂度,因此:集成学习算法11——XGBoost和LightGBM - 图14%7D%3D%5Csum%7Bi%3D1%7D%5E%7Bn%7D%20l%5Cleft(y%7Bi%7D%2C%20%5Chat%7By%7D%7Bi%7D%5E%7B(K-1)%7D%2Bf%7BK%7D%5Cleft(%5Cmathrm%7Bx%7D%7Bi%7D%5Cright)%5Cright)%2B%5Csum%7Bk%3D1%7D%20%5E%7BK-1%7D%5COmega%5Cleft(f%7Bk%7D%5Cright)%2B%5COmega%5Cleft(f%7BK%7D%5Cright)#card=math&code=%5Cmathcal%7BL%7D%5E%7B%28K%29%7D%3D%5Csum%7Bi%3D1%7D%5E%7Bn%7D%20l%5Cleft%28y%7Bi%7D%2C%20%5Chat%7By%7D%7Bi%7D%5E%7B%28K-1%29%7D%2Bf%7BK%7D%5Cleft%28%5Cmathrm%7Bx%7D%7Bi%7D%5Cright%29%5Cright%29%2B%5Csum%7Bk%3D1%7D%20%5E%7BK-1%7D%5COmega%5Cleft%28f%7Bk%7D%5Cright%29%2B%5COmega%5Cleft%28f%7BK%7D%5Cright%29&id=tas1r),由于集成学习算法11——XGBoost和LightGBM - 图15#card=math&code=%5Csum%7Bk%3D1%7D%20%5E%7BK-1%7D%5COmega%5Cleft%28f%7Bk%7D%5Cright%29&id=GSFyk)在模型构建到第K棵树的时候已经固定,无法改变,因此是一个已知的常数,可以在最优化的时候省去,故:

集成学习算法11——XGBoost和LightGBM - 图16%7D%3D%5Csum%7Bi%3D1%7D%5E%7Bn%7D%20l%5Cleft(y%7Bi%7D%2C%20%5Chat%7By%7D%7Bi%7D%5E%7B(K-1)%7D%2Bf%7BK%7D%5Cleft(%5Cmathrm%7Bx%7D%7Bi%7D%5Cright)%5Cright)%2B%5COmega%5Cleft(f%7BK%7D%5Cright)%0A#card=math&code=%5Cmathcal%7BL%7D%5E%7B%28K%29%7D%3D%5Csum%7Bi%3D1%7D%5E%7Bn%7D%20l%5Cleft%28y%7Bi%7D%2C%20%5Chat%7By%7D%7Bi%7D%5E%7B%28K-1%29%7D%2Bf%7BK%7D%5Cleft%28%5Cmathrm%7Bx%7D%7Bi%7D%5Cright%29%5Cright%29%2B%5COmega%5Cleft%28f%7BK%7D%5Cright%29%0A&id=ZF2cS)

(3) 使用泰勒级数近似目标函数:

集成学习算法11——XGBoost和LightGBM - 图17%7D%20%5Csimeq%20%5Csum%7Bi%3D1%7D%5E%7Bn%7D%5Cleft%5Bl%5Cleft(y%7Bi%7D%2C%20%5Chat%7By%7D%5E%7B(K-1)%7D%5Cright)%2Bg%7Bi%7D%20f%7BK%7D%5Cleft(%5Cmathrm%7Bx%7D%7Bi%7D%5Cright)%2B%5Cfrac%7B1%7D%7B2%7D%20h%7Bi%7D%20f%7BK%7D%5E%7B2%7D%5Cleft(%5Cmathrm%7Bx%7D%7Bi%7D%5Cright)%5Cright%5D%2B%5COmega%5Cleft(f%7BK%7D%5Cright)%0A#card=math&code=%5Cmathcal%7BL%7D%5E%7B%28K%29%7D%20%5Csimeq%20%5Csum%7Bi%3D1%7D%5E%7Bn%7D%5Cleft%5Bl%5Cleft%28y%7Bi%7D%2C%20%5Chat%7By%7D%5E%7B%28K-1%29%7D%5Cright%29%2Bg%7Bi%7D%20f%7BK%7D%5Cleft%28%5Cmathrm%7Bx%7D%7Bi%7D%5Cright%29%2B%5Cfrac%7B1%7D%7B2%7D%20h%7Bi%7D%20f%7BK%7D%5E%7B2%7D%5Cleft%28%5Cmathrm%7Bx%7D%7Bi%7D%5Cright%29%5Cright%5D%2B%5COmega%5Cleft%28f%7BK%7D%5Cright%29%0A&id=SzgOh)

其中,集成学习算法11——XGBoost和LightGBM - 图18%7D%20l%5Cleft(y%7Bi%7D%2C%20%5Chat%7By%7D%5E%7B(t-1)%7D%5Cright)#card=math&code=g%7Bi%7D%3D%5Cpartial%7B%5Chat%7By%7D%28t-1%29%7D%20l%5Cleft%28y%7Bi%7D%2C%20%5Chat%7By%7D%5E%7B%28t-1%29%7D%5Cright%29&id=zO1QC)和集成学习算法11——XGBoost和LightGBM - 图19%7D%7D%5E%7B2%7D%20l%5Cleft(y%7Bi%7D%2C%20%5Chat%7By%7D%5E%7B(t-1)%7D%5Cright)#card=math&code=h%7Bi%7D%3D%5Cpartial%7B%5Chat%7By%7D%5E%7B%28t-1%29%7D%7D%5E%7B2%7D%20l%5Cleft%28y%7Bi%7D%2C%20%5Chat%7By%7D%5E%7B%28t-1%29%7D%5Cright%29&id=zsH1n)

在这里,我们补充下泰勒级数的相关知识:

在数学中,泰勒级数(英语:Taylor series)用无限项连加式——级数来表示一个函数,这些相加的项由函数在某一点的导数求得。具体的形式如下:

集成学习算法11——XGBoost和LightGBM - 图20%3D%5Cfrac%7Bf%5Cleft(x%7B0%7D%5Cright)%7D%7B0%20!%7D%2B%5Cfrac%7Bf%5E%7B%5Cprime%7D%5Cleft(x%7B0%7D%5Cright)%7D%7B1%20!%7D%5Cleft(x-x%7B0%7D%5Cright)%2B%5Cfrac%7Bf%5E%7B%5Cprime%20%5Cprime%7D%5Cleft(x%7B0%7D%5Cright)%7D%7B2%20!%7D%5Cleft(x-x%7B0%7D%5Cright)%5E%7B2%7D%2B%5Cldots%2B%5Cfrac%7Bf%5E%7B(n)%7D%5Cleft(x%7B0%7D%5Cright)%7D%7Bn%20!%7D%5Cleft(x-x%7B0%7D%5Cright)%5E%7Bn%7D%2B……%0A#card=math&code=f%28x%29%3D%5Cfrac%7Bf%5Cleft%28x%7B0%7D%5Cright%29%7D%7B0%20%21%7D%2B%5Cfrac%7Bf%5E%7B%5Cprime%7D%5Cleft%28x%7B0%7D%5Cright%29%7D%7B1%20%21%7D%5Cleft%28x-x%7B0%7D%5Cright%29%2B%5Cfrac%7Bf%5E%7B%5Cprime%20%5Cprime%7D%5Cleft%28x%7B0%7D%5Cright%29%7D%7B2%20%21%7D%5Cleft%28x-x%7B0%7D%5Cright%29%5E%7B2%7D%2B%5Cldots%2B%5Cfrac%7Bf%5E%7B%28n%29%7D%5Cleft%28x%7B0%7D%5Cright%29%7D%7Bn%20%21%7D%5Cleft%28x-x%7B0%7D%5Cright%29%5E%7Bn%7D%2B……%0A&id=KkLDC)

由于集成学习算法11——XGBoost和LightGBM - 图21%7D%5Cright)#card=math&code=%5Csum%7Bi%3D1%7D%5E%7Bn%7Dl%5Cleft%28y%7Bi%7D%2C%20%5Chat%7By%7D%5E%7B%28K-1%29%7D%5Cright%29&id=g4Tb2)在模型构建到第K棵树的时候已经固定,无法改变,因此是一个已知的常数,可以在最优化的时候省去,故:

集成学习算法11——XGBoost和LightGBM - 图22%7D%3D%5Csum%7Bi%3D1%7D%5E%7Bn%7D%5Cleft%5Bg%7Bi%7D%20f%7BK%7D%5Cleft(%5Cmathbf%7Bx%7D%7Bi%7D%5Cright)%2B%5Cfrac%7B1%7D%7B2%7D%20h%7Bi%7D%20f%7BK%7D%5E%7B2%7D%5Cleft(%5Cmathbf%7Bx%7D%7Bi%7D%5Cright)%5Cright%5D%2B%5COmega%5Cleft(f%7BK%7D%5Cright)%0A#card=math&code=%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B%28K%29%7D%3D%5Csum%7Bi%3D1%7D%5E%7Bn%7D%5Cleft%5Bg%7Bi%7D%20f%7BK%7D%5Cleft%28%5Cmathbf%7Bx%7D%7Bi%7D%5Cright%29%2B%5Cfrac%7B1%7D%7B2%7D%20h%7Bi%7D%20f%7BK%7D%5E%7B2%7D%5Cleft%28%5Cmathbf%7Bx%7D%7Bi%7D%5Cright%29%5Cright%5D%2B%5COmega%5Cleft%28f%7BK%7D%5Cright%29%0A&id=Ptdsv)

(4) 如何定义一棵树:
为了说明如何定义一棵树的问题,我们需要定义几个概念:第一个概念是样本所在的节点位置集成学习算法11——XGBoost和LightGBM - 图23#card=math&code=q%28x%29&id=h1q0s),第二个概念是有哪些样本落在节点j上集成学习算法11——XGBoost和LightGBM - 图24%3Dj%5Cright%5C%7D#card=math&code=I%7Bj%7D%3D%5Cleft%5C%7Bi%20%5Cmid%20q%5Cleft%28%5Cmathbf%7Bx%7D%7Bi%7D%5Cright%29%3Dj%5Cright%5C%7D&id=BRZeU),第三个概念是每个结点的预测值集成学习算法11——XGBoost和LightGBM - 图25%7D#card=math&code=w%7Bq%28x%29%7D&id=tkyU1),第四个概念是模型复杂度![](https://g.yuque.com/gr/latex?%5COmega%5Cleft(f%7BK%7D%5Cright)#card=math&code=%5COmega%5Cleft%28f%7BK%7D%5Cright%29&id=K2Ojn),它可以由叶子节点的个数以及节点函数值来构建,则:![](https://g.yuque.com/gr/latex?%5COmega%5Cleft(f%7BK%7D%5Cright)%20%3D%20%5Cgamma%20T%2B%5Cfrac%7B1%7D%7B2%7D%20%5Clambda%20%5Csum%7Bj%3D1%7D%5E%7BT%7D%20w%7Bj%7D%5E%7B2%7D#card=math&code=%5COmega%5Cleft%28f%7BK%7D%5Cright%29%20%3D%20%5Cgamma%20T%2B%5Cfrac%7B1%7D%7B2%7D%20%5Clambda%20%5Csum%7Bj%3D1%7D%5E%7BT%7D%20w_%7Bj%7D%5E%7B2%7D&id=UnFdN)。如下图的例子:
image.png

集成学习算法11——XGBoost和LightGBM - 图27%20%3D%201%2Cq(x_2)%20%3D%203%2Cq(x_3)%20%3D%201%2Cq(x_4)%20%3D%202%2Cq(x_5)%20%3D%203#card=math&code=q%28x_1%29%20%3D%201%2Cq%28x_2%29%20%3D%203%2Cq%28x_3%29%20%3D%201%2Cq%28x_4%29%20%3D%202%2Cq%28x_5%29%20%3D%203&id=xA6ZN),集成学习算法11——XGBoost和LightGBM - 图28集成学习算法11——XGBoost和LightGBM - 图29#card=math&code=w%20%3D%20%2815%2C12%2C20%29&id=KFdoc)

因此,目标函数用以上符号替代后:

集成学习算法11——XGBoost和LightGBM - 图30%7D%20%26%3D%5Csum%7Bi%3D1%7D%5E%7Bn%7D%5Cleft%5Bg%7Bi%7D%20f%7BK%7D%5Cleft(%5Cmathrm%7Bx%7D%7Bi%7D%5Cright)%2B%5Cfrac%7B1%7D%7B2%7D%20h%7Bi%7D%20f%7BK%7D%5E%7B2%7D%5Cleft(%5Cmathrm%7Bx%7D%7Bi%7D%5Cright)%5Cright%5D%2B%5Cgamma%20T%2B%5Cfrac%7B1%7D%7B2%7D%20%5Clambda%20%5Csum%7Bj%3D1%7D%5E%7BT%7D%20w%7Bj%7D%5E%7B2%7D%20%5C%5C%0A%26%3D%5Csum%7Bj%3D1%7D%5E%7BT%7D%5Cleft%5B%5Cleft(%5Csum%7Bi%20%5Cin%20I%7Bj%7D%7D%20g%7Bi%7D%5Cright)%20w%7Bj%7D%2B%5Cfrac%7B1%7D%7B2%7D%5Cleft(%5Csum%7Bi%20%5Cin%20I%7Bj%7D%7D%20h%7Bi%7D%2B%5Clambda%5Cright)%20w%7Bj%7D%5E%7B2%7D%5Cright%5D%2B%5Cgamma%20T%0A%5Cend%7Baligned%7D%0A#card=math&code=%5Cbegin%7Baligned%7D%0A%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B%28K%29%7D%20%26%3D%5Csum%7Bi%3D1%7D%5E%7Bn%7D%5Cleft%5Bg%7Bi%7D%20f%7BK%7D%5Cleft%28%5Cmathrm%7Bx%7D%7Bi%7D%5Cright%29%2B%5Cfrac%7B1%7D%7B2%7D%20h%7Bi%7D%20f%7BK%7D%5E%7B2%7D%5Cleft%28%5Cmathrm%7Bx%7D%7Bi%7D%5Cright%29%5Cright%5D%2B%5Cgamma%20T%2B%5Cfrac%7B1%7D%7B2%7D%20%5Clambda%20%5Csum%7Bj%3D1%7D%5E%7BT%7D%20w%7Bj%7D%5E%7B2%7D%20%5C%5C%0A%26%3D%5Csum%7Bj%3D1%7D%5E%7BT%7D%5Cleft%5B%5Cleft%28%5Csum%7Bi%20%5Cin%20I%7Bj%7D%7D%20g%7Bi%7D%5Cright%29%20w%7Bj%7D%2B%5Cfrac%7B1%7D%7B2%7D%5Cleft%28%5Csum%7Bi%20%5Cin%20I%7Bj%7D%7D%20h%7Bi%7D%2B%5Clambda%5Cright%29%20w%7Bj%7D%5E%7B2%7D%5Cright%5D%2B%5Cgamma%20T%0A%5Cend%7Baligned%7D%0A&id=apoRJ)

由于我们的目标就是最小化目标函数,现在的目标函数化简为一个关于w的二次函数:集成学习算法11——XGBoost和LightGBM - 图31%7D%3D%5Csum%7Bj%3D1%7D%5E%7BT%7D%5Cleft%5B%5Cleft(%5Csum%7Bi%20%5Cin%20I%7Bj%7D%7D%20g%7Bi%7D%5Cright)%20w%7Bj%7D%2B%5Cfrac%7B1%7D%7B2%7D%5Cleft(%5Csum%7Bi%20%5Cin%20I%7Bj%7D%7D%20h%7Bi%7D%2B%5Clambda%5Cright)%20w%7Bj%7D%5E%7B2%7D%5Cright%5D%2B%5Cgamma%20T#card=math&code=%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B%28K%29%7D%3D%5Csum%7Bj%3D1%7D%5E%7BT%7D%5Cleft%5B%5Cleft%28%5Csum%7Bi%20%5Cin%20I%7Bj%7D%7D%20g%7Bi%7D%5Cright%29%20w%7Bj%7D%2B%5Cfrac%7B1%7D%7B2%7D%5Cleft%28%5Csum%7Bi%20%5Cin%20I%7Bj%7D%7D%20h%7Bi%7D%2B%5Clambda%5Cright%29%20w%7Bj%7D%5E%7B2%7D%5Cright%5D%2B%5Cgamma%20T&id=dZQut),根据二次函数求极值的公式:集成学习算法11——XGBoost和LightGBM - 图32求极值,对称轴在集成学习算法11——XGBoost和LightGBM - 图33,极值为集成学习算法11——XGBoost和LightGBM - 图34,因此:

集成学习算法11——XGBoost和LightGBM - 图35

以及

集成学习算法11——XGBoost和LightGBM - 图36%7D(q)%3D-%5Cfrac%7B1%7D%7B2%7D%20%5Csum%7Bj%3D1%7D%5E%7BT%7D%20%5Cfrac%7B%5Cleft(%5Csum%7Bi%20%5Cin%20I%7Bj%7D%7D%20g%7Bi%7D%5Cright)%5E%7B2%7D%7D%7B%5Csum%7Bi%20%5Cin%20I%7Bj%7D%7D%20h%7Bi%7D%2B%5Clambda%7D%2B%5Cgamma%20T%0A#card=math&code=%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B%28K%29%7D%28q%29%3D-%5Cfrac%7B1%7D%7B2%7D%20%5Csum%7Bj%3D1%7D%5E%7BT%7D%20%5Cfrac%7B%5Cleft%28%5Csum%7Bi%20%5Cin%20I%7Bj%7D%7D%20g%7Bi%7D%5Cright%29%5E%7B2%7D%7D%7B%5Csum%7Bi%20%5Cin%20I%7Bj%7D%7D%20h%7Bi%7D%2B%5Clambda%7D%2B%5Cgamma%20T%0A&id=lwUJf)

(5) 如何寻找树的形状:
不难发现,刚刚的讨论都是基于树的形状已经确定了计算集成学习算法11——XGBoost和LightGBM - 图37集成学习算法11——XGBoost和LightGBM - 图38,但是实际上我们需要像学习决策树一样找到树的形状。因此,我们借助决策树学习的方式,使用目标函数的变化来作为分裂节点的标准。我们使用一个例子来说明:
image.png

例子中有8个样本,分裂方式如下,因此:

集成学习算法11——XGBoost和LightGBM - 图40%7D%20%3D%20-%5Cfrac%7B1%7D%7B2%7D%5B%5Cfrac%7B(g_7%20%2B%20g_8)%5E2%7D%7BH_7%2BH_8%20%2B%20%5Clambda%7D%20%2B%20%5Cfrac%7B(g_1%20%2B…%2B%20g_6)%5E2%7D%7BH_1%2B…%2BH_6%20%2B%20%5Clambda%7D%5D%20%2B%202%5Cgamma%20%5C%5C%0A%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B(new)%7D%20%3D%20-%5Cfrac%7B1%7D%7B2%7D%5B%5Cfrac%7B(g_7%20%2B%20g_8)%5E2%7D%7BH_7%2BH_8%20%2B%20%5Clambda%7D%20%2B%20%5Cfrac%7B(g_1%20%2B…%2B%20g_3)%5E2%7D%7BH_1%2B…%2BH_3%20%2B%20%5Clambda%7D%20%2B%20%5Cfrac%7B(g_4%20%2B…%2B%20g_6)%5E2%7D%7BH_4%2B…%2BH_6%20%2B%20%5Clambda%7D%5D%20%2B%203%5Cgamma%5C%5C%0A%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B(old)%7D%20-%20%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B(new)%7D%20%3D%20%5Cfrac%7B1%7D%7B2%7D%5B%20%5Cfrac%7B(g_1%20%2B…%2B%20g_3)%5E2%7D%7BH_1%2B…%2BH_3%20%2B%20%5Clambda%7D%20%2B%20%5Cfrac%7B(g_4%20%2B…%2B%20g_6)%5E2%7D%7BH_4%2B…%2BH_6%20%2B%20%5Clambda%7D%20-%20%5Cfrac%7B(g_1%2B…%2Bg_6)%5E2%7D%7Bh_1%2B…%2Bh_6%2B%5Clambda%7D%5D%20-%20%5Cgamma%0A#card=math&code=%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B%28old%29%7D%20%3D%20-%5Cfrac%7B1%7D%7B2%7D%5B%5Cfrac%7B%28g_7%20%2B%20g_8%29%5E2%7D%7BH_7%2BH_8%20%2B%20%5Clambda%7D%20%2B%20%5Cfrac%7B%28g_1%20%2B…%2B%20g_6%29%5E2%7D%7BH_1%2B…%2BH_6%20%2B%20%5Clambda%7D%5D%20%2B%202%5Cgamma%20%5C%5C%0A%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B%28new%29%7D%20%3D%20-%5Cfrac%7B1%7D%7B2%7D%5B%5Cfrac%7B%28g_7%20%2B%20g_8%29%5E2%7D%7BH_7%2BH_8%20%2B%20%5Clambda%7D%20%2B%20%5Cfrac%7B%28g_1%20%2B…%2B%20g_3%29%5E2%7D%7BH_1%2B…%2BH_3%20%2B%20%5Clambda%7D%20%2B%20%5Cfrac%7B%28g_4%20%2B…%2B%20g_6%29%5E2%7D%7BH_4%2B…%2BH_6%20%2B%20%5Clambda%7D%5D%20%2B%203%5Cgamma%5C%5C%0A%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B%28old%29%7D%20-%20%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B%28new%29%7D%20%3D%20%5Cfrac%7B1%7D%7B2%7D%5B%20%5Cfrac%7B%28g_1%20%2B…%2B%20g_3%29%5E2%7D%7BH_1%2B…%2BH_3%20%2B%20%5Clambda%7D%20%2B%20%5Cfrac%7B%28g_4%20%2B…%2B%20g_6%29%5E2%7D%7BH_4%2B…%2BH_6%20%2B%20%5Clambda%7D%20-%20%5Cfrac%7B%28g_1%2B…%2Bg_6%29%5E2%7D%7Bh_1%2B…%2Bh_6%2B%5Clambda%7D%5D%20-%20%5Cgamma%0A&id=Sbm1R)

因此,从上面的例子看出:分割节点的标准为集成学习算法11——XGBoost和LightGBM - 图41%7D%20-%20%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B(new)%7D%20%5C%7D#card=math&code=max%5C%7B%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B%28old%29%7D%20-%20%5Ctilde%7B%5Cmathcal%7BL%7D%7D%5E%7B%28new%29%7D%20%5C%7D&id=pMZFk),即:

集成学习算法11——XGBoost和LightGBM - 图42%5E%7B2%7D%7D%7B%5Csum%7Bi%20%5Cin%20I%7BL%7D%7D%20h%7Bi%7D%2B%5Clambda%7D%2B%5Cfrac%7B%5Cleft(%5Csum%7Bi%20%5Cin%20I%7BR%7D%7D%20g%7Bi%7D%5Cright)%5E%7B2%7D%7D%7B%5Csum%7Bi%20%5Cin%20I%7BR%7D%7D%20h%7Bi%7D%2B%5Clambda%7D-%5Cfrac%7B%5Cleft(%5Csum%7Bi%20%5Cin%20I%7D%20g%7Bi%7D%5Cright)%5E%7B2%7D%7D%7B%5Csum%7Bi%20%5Cin%20I%7D%20h%7Bi%7D%2B%5Clambda%7D%5Cright%5D-%5Cgamma%0A#card=math&code=%5Cmathcal%7BL%7D%7B%5Ctext%20%7Bsplit%20%7D%7D%3D%5Cfrac%7B1%7D%7B2%7D%5Cleft%5B%5Cfrac%7B%5Cleft%28%5Csum%7Bi%20%5Cin%20I%7BL%7D%7D%20g%7Bi%7D%5Cright%29%5E%7B2%7D%7D%7B%5Csum%7Bi%20%5Cin%20I%7BL%7D%7D%20h%7Bi%7D%2B%5Clambda%7D%2B%5Cfrac%7B%5Cleft%28%5Csum%7Bi%20%5Cin%20I%7BR%7D%7D%20g%7Bi%7D%5Cright%29%5E%7B2%7D%7D%7B%5Csum%7Bi%20%5Cin%20I%7BR%7D%7D%20h%7Bi%7D%2B%5Clambda%7D-%5Cfrac%7B%5Cleft%28%5Csum%7Bi%20%5Cin%20I%7D%20g%7Bi%7D%5Cright%29%5E%7B2%7D%7D%7B%5Csum%7Bi%20%5Cin%20I%7D%20h%7Bi%7D%2B%5Clambda%7D%5Cright%5D-%5Cgamma%0A&id=gRODs)

1.1 精确贪心分裂算法

XGBoost在生成新树的过程中,最基本的操作是节点分裂。节点分裂中最重要的环节是找到最优特征及最优切分点, 然后将叶子节点按照最优特征和最优切 分点进行分裂。选取最优特征和最优切分点的一种思路如下:首先找到所有的候选特征及所有的候选切分点, 一一求得其 集成学习算法11——XGBoost和LightGBM - 图43, 然后选择集成学习算法11——XGBoost和LightGBM - 图44 最大的特征及 对应切分点作为最优特征和最优切分点。我们称此种方法为精确贪心算法。该算法是一种启发式算法, 因为在节点分裂时只选择当前最优的分裂策略, 而非全局最优的分裂策略。精确贪心算法的计算过程如下所示:
image.png

1.2 基于直方图的近似算法

1.2.1 理论

精确贪心算法在选择最优特征和最优切分点时是一种十分有效的方法。它计算了所有特征、所有切分点的收益, 并从中选择了最优的, 从而保证模型能比较好地拟合了训练数据。但是当数据不能完全加载到内存时,精确贪心算法会变得 非常低效,算法在计算过程中需要不断在内存与磁盘之间进行数据交换,这是个非常耗时的过程, 并且在分布式环境中面临同样的问题。为了能够更高效地选 择最优特征及切分点, XGBoost提出一种近似算法来解决该问题。 基于直方图的近似算法的主要思想是:对某一特征寻找最优切分点时,首先对该特征的所有切分点按分位数 (如百分位) 分桶, 得到一个候选切分点集。特征的每一个切分点都可以分到对应的分桶;然后,对每个桶计算特征统计G和H得到直方图, G为该桶内所有样本一阶特征统计g之和, H为该桶内所有样本二阶特征统计h之和; 最后,选择所有候选特征及候选切分点中对应桶的特征统计收益最大的作为最优特征及最优切分点。基于直方图的近似算法的计算过程如下所示:

  1. 对于每个特征 集成学习算法11——XGBoost和LightGBM - 图46 按分位数对特征 集成学习算法11——XGBoost和LightGBM - 图47 分桶 集成学习算法11——XGBoost和LightGBM - 图48 可得候选切分点, 集成学习算法11——XGBoost和LightGBM - 图49
  2. 对于每个特征 集成学习算法11——XGBoost和LightGBM - 图50 有:

集成学习算法11——XGBoost和LightGBM - 图51

  1. 类似精确贪心算法,依据梯度统计找到最大增益的候选切分点。

1.2.2 举例

下面用一个例子说明基于直方图的近似算法:
假设有一个年龄特征,其特征的取值为18、19、21、31、36、37、55、57,我们需要使用近似算法找到年龄这个特征的最佳分裂点:
image.png
近似算法实现了两种候选切分点的构建策略:全局策略和本地策略。全局策略是在树构建的初始阶段对每一个特征确定一个候选切分点的集合, 并在该树每一层的节点分裂中均采用此集合计算收益, 整个过程候选切分点集合不改变。本地策略则是在每一次节点分裂时均重新确定候选切分点。全局策略需要更细的分桶才能达到本地策略的精确度, 但全局策略在选取候选切分点集合时比本地策略更简单。在XGBoost系统中, 用户可以根据需求自由选择使用精确贪心算法、近似算法全局策略、近似算法本地策略, 算法均可通过参数进行配置。

1.2.3 XGBoost算法的工程应用

以上是XGBoost的理论部分,下面我们对XGBoost系统进行详细的讲解:

官方文档:https://xgboost.readthedocs.io/en/latest/python/python_intro.html

笔者自己的总结:https://zhuanlan.zhihu.com/p/143009353

  1. # XGBoost原生工具库的上手:
  2. import xgboost as xgb # 引入工具库
  3. # read in data
  4. dtrain = xgb.DMatrix('demo/data/agaricus.txt.train') # XGBoost的专属数据格式,但是也可以用dataframe或者ndarray
  5. dtest = xgb.DMatrix('demo/data/agaricus.txt.test') # # XGBoost的专属数据格式,但是也可以用dataframe或者ndarray
  6. # specify parameters via map
  7. param = {'max_depth':2, 'eta':1, 'objective':'binary:logistic' } # 设置XGB的参数,使用字典形式传入
  8. num_round = 2 # 使用线程数
  9. bst = xgb.train(param, dtrain, num_round) # 训练
  10. # make prediction
  11. preds = bst.predict(dtest) # 预测

:::danger


XGBoostError Traceback (most recent call last)

in
2 import xgboost as xgb # 引入工具库
3 # read in data
——> 4 dtrain = xgb.DMatrix(‘demo/data/agaricus.txt.train’) # XGBoost的专属数据格式,但是也可以用dataframe或者ndarray
5 dtest = xgb.DMatrix(‘demo/data/agaricus.txt.test’) # # XGBoost的专属数据格式,但是也可以用dataframe或者ndarray
6 # specify parameters via map
… …
—> 188 raise XGBoostError(py_str(_LIB.XGBGetLastError()))
189
190


XGBoostError: [18:09:06] C:\Users\Administrator\workspace\xgboost-win64_release_1.2.0\dmlc-core\src\io\local_filesys.cc:127: LocalFileSystem.ListDirectory demo/data error: No such process :::

这两个数据集并不是xgboost自带的,需要手动下载。

数据集下载链接:
https://github.com/dmlc/xgboost/tree/master/demo/data

下面2个链接,可以用浏览器新建任务进行下载: https://raw.githubusercontent.com/dmlc/xgboost/master/demo/data/agaricus.txt.train
https://raw.githubusercontent.com/dmlc/xgboost/master/demo/data/agaricus.txt.test

  1. dtrain = xgb.DMatrix(r'D:/Download/agaricus.txt.train')
  2. dtest = xgb.DMatrix(r'D:/Download/agaricus.txt.test')
  3. param = {'max_depth':2, 'eta':1, 'objective':'binary:logistic' }
  4. num_round = 2
  5. bst = xgb.train(param, dtrain, num_round)
  6. preds = bst.predict(dtest)

XGBoost的参数设置(括号内的名称为sklearn接口对应的参数名字): :::tips

XGBoost的参数分为三种:

  • 通用参数:(两种类型的booster,因为tree的性能比线性回归好得多,因此我们很少用线性回归。)

    • booster:使用哪个弱学习器训练,默认gbtree,可选gbtree,gblinear 或dart
    • nthread:用于运行XGBoost的并行线程数,默认为最大可用线程数
    • verbosity:打印消息的详细程度。有效值为0(静默),1(警告),2(信息),3(调试)。
    • Tree Booster的参数:

      • eta(learning_rate):learning_rate,在更新中使用步长收缩以防止过度拟合,默认= 0.3,范围:[0,1];典型值一般设置为:0.01-0.2
      • gamma(min_split_loss):默认= 0,分裂节点时,损失函数减小值只有大于等于gamma节点才分裂,gamma值越大,算法越保守,越不容易过拟合,但性能就不一定能保证,需要平衡。范围:[0,∞]
      • max_depth:默认= 6,一棵树的最大深度。增加此值将使模型更复杂,并且更可能过度拟合。范围:[0,∞]
      • min_child_weight:默认值= 1,如果新分裂的节点的样本权重和小于min_child_weight则停止分裂 。这个可以用来减少过拟合,但是也不能太高,会导致欠拟合。范围:[0,∞]
      • max_delta_step:默认= 0,允许每个叶子输出的最大增量步长。如果将该值设置为0,则表示没有约束。如果将其设置为正值,则可以帮助使更新步骤更加保守。通常不需要此参数,但是当类极度不平衡时,它可能有助于逻辑回归。将其设置为1-10的值可能有助于控制更新。范围:[0,∞]
      • subsample:默认值= 1,构建每棵树对样本的采样率,如果设置成0.5,XGBoost会随机选择一半的样本作为训练集。范围:(0,1]
      • sampling_method:默认= uniform,用于对训练实例进行采样的方法。

        • uniform:每个训练实例的选择概率均等。通常将subsample> = 0.5 设置 为良好的效果。
        • gradient_based:每个训练实例的选择概率与规则化的梯度绝对值成正比,具体来说就是集成学习算法11——XGBoost和LightGBM - 图53,subsample可以设置为低至0.1,而不会损失模型精度。
      • colsample_bytree:默认= 1,列采样率,也就是特征采样率。范围为(0,1]

      • lambda(reg_lambda):默认=1,L2正则化权重项。增加此值将使模型更加保守。
      • alpha(reg_alpha):默认= 0,权重的L1正则化项。增加此值将使模型更加保守。
      • tree_method:默认=auto,XGBoost中使用的树构建算法。

        • auto:使用启发式选择最快的方法。

          • 对于小型数据集,exact将使用精确贪婪()。
          • 对于较大的数据集,approx将选择近似算法()。它建议尝试hist,gpu_hist,用大量的数据可能更高的性能。(gpu_hist)支持。external memory外部存储器。
        • exact:精确的贪婪算法。枚举所有拆分的候选点。

        • approx:使用分位数和梯度直方图的近似贪婪算法。
        • hist:更快的直方图优化的近似贪婪算法。(LightGBM也是使用直方图算法)
        • gpu_hist:GPU hist算法的实现。
      • scale_pos_weight:控制正负权重的平衡,这对于不平衡的类别很有用。Kaggle竞赛一般设置sum(negative instances) / sum(positive instances),在类别高度不平衡的情况下,将参数设置大于0,可以加快收敛。

      • num_parallel_tree:默认=1,每次迭代期间构造的并行树的数量。此选项用于支持增强型随机森林。
      • monotone_constraints:可变单调性的约束,在某些情况下,如果有非常强烈的先验信念认为真实的关系具有一定的质量,则可以使用约束条件来提高模型的预测性能。(例如params_constrained[‘monotone_constraints’] = “(1,-1)”,(1,-1)我们告诉XGBoost对第一个预测变量施加增加的约束,对第二个预测变量施加减小的约束。)
  • Linear Booster的参数:

    • lambda(reg_lambda):默认= 0,L2正则化权重项。增加此值将使模型更加保守。归一化为训练示例数。
    • alpha(reg_alpha):默认= 0,权重的L1正则化项。增加此值将使模型更加保守。归一化为训练示例数。
    • updater:默认= shotgun。

      • shotgun:基于shotgun算法的平行坐标下降算法。使用“ hogwild”并行性,因此每次运行都产生不确定的解决方案。
      • coord_descent:普通坐标下降算法。同样是多线程的,但仍会产生确定性的解决方案。
    • feature_selector:默认= cyclic。特征选择和排序方法

      • cyclic:通过每次循环一个特征来实现的。
      • shuffle:类似于cyclic,但是在每次更新之前都有随机的特征变换。
      • random:一个随机(有放回)特征选择器。
      • greedy:选择梯度最大的特征。(贪婪选择)
      • thrifty:近似贪婪特征选择(近似于greedy)
    • top_k:要选择的最重要特征数(在greedy和thrifty内)

  • 任务参数(这个参数用来控制理想的优化目标和每一步结果的度量方法。)

    • objective:默认=reg:squarederror,表示最小平方误差。

      • reg:squarederror,最小平方误差。
      • reg:squaredlogerror,对数平方损失。集成学习算法11——XGBoost和LightGBM - 图54-log(label%2B1)%5D%5E2#card=math&code=%5Cfrac%7B1%7D%7B2%7D%5Blog%28pred%2B1%29-log%28label%2B1%29%5D%5E2&id=ecbcQ)
      • reg:logistic,逻辑回归
      • reg:pseudohubererror,使用伪Huber损失进行回归,这是绝对损失的两倍可微选择。
      • binary:logistic,二元分类的逻辑回归,输出概率。
      • binary:logitraw:用于二进制分类的逻辑回归,逻辑转换之前的输出得分。
      • binary:hinge:二进制分类的铰链损失。这使预测为0或1,而不是产生概率。(SVM就是铰链损失函数)
      • count:poisson –计数数据的泊松回归,泊松分布的输出平均值。
      • survival:cox:针对正确的生存时间数据进行Cox回归(负值被视为正确的生存时间)。
      • survival:aft:用于检查生存时间数据的加速故障时间模型。
      • aft_loss_distribution:survival:aft和aft-nloglik度量标准使用的概率密度函数。
      • multi:softmax:设置XGBoost以使用softmax目标进行多类分类,还需要设置num_class(类数)
      • multi:softprob:与softmax相同,但输出向量,可以进一步重整为矩阵。结果包含属于每个类别的每个数据点的预测概率。
      • rank:pairwise:使用LambdaMART进行成对排名,从而使成对损失最小化。
      • rank:ndcg:使用LambdaMART进行列表式排名,使标准化折让累积收益(NDCG)最大化。
      • rank:map:使用LambdaMART进行列表平均排名,使平均平均精度(MAP)最大化。
      • reg:gamma:使用对数链接进行伽马回归。输出是伽马分布的平均值。
      • reg:tweedie:使用对数链接进行Tweedie回归。
      • 自定义损失函数和评价指标:https://xgboost.readthedocs.io/en/latest/tutorials/custom_metric_obj.html
    • eval_metric:验证数据的评估指标,将根据目标分配默认指标(回归均方根,分类误差,排名的平均平均精度),用户可以添加多个评估指标

      • rmse,均方根误差; rmsle:均方根对数误差; mae:平均绝对误差;mphe:平均伪Huber错误;logloss:负对数似然; error:二进制分类错误率;
      • merror:多类分类错误率; mlogloss:多类logloss; auc:曲线下面积; aucpr:PR曲线下的面积;ndcg:归一化累计折扣;map:平均精度;
    • seed :随机数种子,[默认= 0]。

  • 命令行参数(这里不说了,因为很少用命令行控制台版本)
  1. from IPython.display import IFrame
  2. IFrame('https://xgboost.readthedocs.io/en/latest/parameter.html', width=1200, height=600)

image.png

XGBoost的调参说明:
参数调优的一般步骤

  1. 确定学习速率和提升参数调优的初始值
  2. max_depth 和 min_child_weight 参数调优
  3. gamma参数调优
  4. subsample 和 colsample_bytree 参数优
  5. 正则化参数alpha调优
  6. 降低学习速率和使用更多的决策树

XGBoost详细攻略:
具体的api请查看:https://xgboost.readthedocs.io/en/latest/python/python_api.html
推荐github:https://github.com/dmlc/xgboost/tree/master/demo/guide-python

安装XGBoost:
方式1:pip3 install xgboost
方式2:pip install xgboost

数据接口(XGBoost可处理的数据格式DMatrix) :::info 提示:以下为xgboost官方例子,暂时没有找到数据集。 :::

  1. import xgboost as xgb
  2. # 1.LibSVM文本格式文件
  3. dtrain = xgb.DMatrix('train.svm.txt')
  4. dtest = xgb.DMatrix('test.svm.buffer')
  5. # 2.CSV文件(不能含类别文本变量,如果存在文本变量请做特征处理如one-hot)
  6. dtrain = xgb.DMatrix('train.csv?format=csv&label_column=0')
  7. dtest = xgb.DMatrix('test.csv?format=csv&label_column=0')
  8. # 3.NumPy数组
  9. data = np.random.rand(5, 10) # 5 entities, each contains 10 features
  10. label = np.random.randint(2, size=5) # binary target
  11. dtrain = xgb.DMatrix(data, label=label)
  12. # 4.scipy.sparse数组
  13. csr = scipy.sparse.csr_matrix((dat, (row, col)))
  14. dtrain = xgb.DMatrix(csr)
  15. # pandas数据框dataframe
  16. data = pandas.DataFrame(np.arange(12).reshape((4,3)), columns=['a', 'b', 'c'])
  17. label = pandas.DataFrame(np.random.randint(2, size=4))
  18. dtrain = xgb.DMatrix(data, label=label)

笔者推荐:先保存到XGBoost二进制文件中将使加载速度更快,然后再加载进来

  1. # 1.保存DMatrix到XGBoost二进制文件中
  2. dtrain = xgb.DMatrix('train.svm.txt')
  3. dtrain.save_binary('train.buffer')
  4. # 2. 缺少的值可以用DMatrix构造函数中的默认值替换:
  5. dtrain = xgb.DMatrix(data, label=label, missing=-999.0)
  6. # 3.可以在需要时设置权重:
  7. w = np.random.rand(5, 1)
  8. dtrain = xgb.DMatrix(data, label=label, missing=-999.0, weight=w)

参数的设置方式:

  1. import pandas as pd
  2. import xgboost as xgb
  3. # 加载并处理数据
  4. df_wine = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data',header=None)
  5. df_wine.columns = ['Class label', 'Alcohol','Malic acid', 'Ash','Alcalinity of ash','Magnesium', 'Total phenols',
  6. 'Flavanoids', 'Nonflavanoid phenols','Proanthocyanins','Color intensity', 'Hue','OD280/OD315 of diluted wines','Proline']
  7. df_wine = df_wine[df_wine['Class label'] != 1] # drop 1 class
  8. y = df_wine['Class label'].values
  9. X = df_wine[['Alcohol','OD280/OD315 of diluted wines']].values
  10. from sklearn.model_selection import train_test_split # 切分训练集与测试集
  11. from sklearn.preprocessing import LabelEncoder # 标签化分类变量
  12. le = LabelEncoder()
  13. y = le.fit_transform(y)
  14. X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.2,random_state=1,stratify=y)
  15. dtrain = xgb.DMatrix(X_train, label=y_train)
  16. dtest = xgb.DMatrix(X_test)
  17. # 1.Booster 参数
  18. params = {
  19. 'booster': 'gbtree',
  20. 'objective': 'multi:softmax', # 多分类的问题
  21. 'num_class': 10, # 类别数,与 multisoftmax 并用
  22. 'gamma': 0.1, # 用于控制是否后剪枝的参数,越大越保守,一般0.1、0.2这样子。
  23. 'max_depth': 12, # 构建树的深度,越大越容易过拟合
  24. 'lambda': 2, # 控制模型复杂度的权重值的L2正则化项参数,参数越大,模型越不容易过拟合。
  25. 'subsample': 0.7, # 随机采样训练样本
  26. 'colsample_bytree': 0.7, # 生成树时进行的列采样
  27. 'min_child_weight': 3,
  28. 'silent': 1, # 设置成1则没有运行信息输出,最好是设置为0.
  29. 'eta': 0.007, # 如同学习率
  30. 'seed': 1000,
  31. 'nthread': 4, # cpu 线程数
  32. 'eval_metric':'auc'
  33. }
  34. plst = params.items()
  35. # evallist = [(dtest, 'eval'), (dtrain, 'train')] # 指定验证集

训练:

  1. num_round = 10
  2. bst = xgb.train(list(plst), dtrain, num_round)
  3. #bst = xgb.train( plst, dtrain, num_round, evallist )

[17:01:55] WARNING: C:/Users/Administrator/workspace/xgboost-win64_release_1.4.0/src/learner.cc:573: Parameters: { “silent” } might not be used.

This may not be accurate due to some parameters are only used in language bindings but passed down to XGBoost core. Or some parameters are not used but slip through this verification. Please open an issue if you find above cases.

保存模型:

  1. # 3.保存模型
  2. bst.save_model('0001.model')
  3. # dump model
  4. bst.dump_model('dump.raw.txt')
  5. # dump model with feature map
  6. #bst.dump_model('dump.raw.txt', 'featmap.txt')

加载保存的模型:

  1. # 4.加载保存的模型:
  2. bst = xgb.Booster({'nthread': 4}) # init model
  3. bst.load_model('0001.model') # load data

设置早停机制:

  1. # 5.也可以设置早停机制(需要设置验证集)
  2. train(..., evals=evals, early_stopping_rounds=10)

预测:

  1. ypred = bst.predict(dtest)

绘制重要性特征图:
① 绘制重要性

  1. import matplotlib.pyplot as plt
  2. %matplotlib inline
  3. xgb.plot_importance(bst)

output_30_1.png

②.绘制输出树 :::info 需要安装graphviz库,安装方法参考:
https://www.cda.cn/discuss/post/details/5f362fbc922c1e31e6490c19 :::

  1. xgb.plot_tree(bst, num_trees=2)

output_32_1.png

③ 使用xgboost.to_graphviz()将目标树转换为graphviz

  1. xgb.to_graphviz(bst, num_trees=2)

output_33_0.svg

2. Xgboost算法案例

2.1 分类案例

  1. from sklearn.datasets import load_iris
  2. import xgboost as xgb
  3. from xgboost import plot_importance
  4. from matplotlib import pyplot as plt
  5. from sklearn.model_selection import train_test_split
  6. from sklearn.metrics import accuracy_score # 准确率
  7. # 加载样本数据集
  8. iris = load_iris()
  9. X,y = iris.data,iris.target
  10. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=1234565) # 数据集分割
  11. # 算法参数
  12. params = {
  13. 'booster': 'gbtree',
  14. 'objective': 'multi:softmax',
  15. 'num_class': 3,
  16. 'gamma': 0.1,
  17. 'max_depth': 6,
  18. 'lambda': 2,
  19. 'subsample': 0.7,
  20. 'colsample_bytree': 0.75,
  21. 'min_child_weight': 3,
  22. 'silent': 0,
  23. 'eta': 0.1,
  24. 'seed': 1,
  25. 'nthread': 4,
  26. }
  27. plst = params.items()
  28. dtrain = xgb.DMatrix(X_train, y_train) # 生成数据集格式
  29. num_rounds = 500
  30. model = xgb.train(params, dtrain, num_rounds) # xgboost模型训练
  31. # 对测试集进行预测
  32. dtest = xgb.DMatrix(X_test)
  33. y_pred = model.predict(dtest)
  34. # 计算准确率
  35. accuracy = accuracy_score(y_test,y_pred)
  36. print("accuarcy: %.2f%%" % (accuracy*100.0))
  37. # 显示重要特征
  38. plot_importance(model)
  39. plt.show()

:::warning [17:03:35] WARNING: C:/Users/Administrator/workspace/xgboost-win64_release_1.4.0/src/learner.cc:573: Parameters: { “silent” } might not be used.

This may not be accurate due to some parameters are only used in language bindings but
passed down to XGBoost core. Or some parameters are not used but slip through this
verification. Please open an issue if you find above cases.


[17:03:35] WARNING: C:/Users/Administrator/workspace/xgboost-win64_release_1.4.0/src/learner.cc:1095: Starting in XGBoost 1.3.0, the default evaluation metric used with the objective ‘multi:softmax’ was changed from ‘merror’ to ‘mlogloss’. Explicitly set eval_metric if you’d like to restore the old behavior.

::: :::success accuarcy: 96.67% ::: output_36_1.png

2.2 回归案例

  1. import xgboost as xgb
  2. from xgboost import plot_importance
  3. from matplotlib import pyplot as plt
  4. from sklearn.model_selection import train_test_split
  5. from sklearn.datasets import load_boston
  6. from sklearn.metrics import mean_squared_error
  7. # 加载数据集
  8. boston = load_boston()
  9. X,y = boston.data,boston.target
  10. # XGBoost训练过程
  11. X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
  12. params = {
  13. 'booster': 'gbtree',
  14. 'objective': 'reg:squarederror',
  15. 'gamma': 0.1,
  16. 'max_depth': 5,
  17. 'lambda': 3,
  18. 'subsample': 0.7,
  19. 'colsample_bytree': 0.7,
  20. 'min_child_weight': 3,
  21. 'silent': 1,
  22. 'eta': 0.1,
  23. 'seed': 1000,
  24. 'nthread': 4,
  25. }
  26. dtrain = xgb.DMatrix(X_train, y_train)
  27. num_rounds = 300
  28. plst = params.items()
  29. model = xgb.train(params, dtrain, num_rounds)
  30. # 对测试集进行预测
  31. dtest = xgb.DMatrix(X_test)
  32. ans = model.predict(dtest)
  33. # 显示重要特征
  34. plot_importance(model)
  35. plt.show()

output_38_1.png

2.3 XGBoost调参(结合sklearn网格搜索)

代码参考:https://www.jianshu.com/p/1100e333fcab

  1. import xgboost as xgb
  2. import pandas as pd
  3. from sklearn.model_selection import train_test_split
  4. from sklearn.model_selection import GridSearchCV
  5. from sklearn.metrics import roc_auc_score
  6. iris = load_iris()
  7. X,y = iris.data,iris.target
  8. col = iris.target_names
  9. train_x, valid_x, train_y, valid_y = train_test_split(X, y, test_size=0.3, random_state=1) # 分训练集和验证集
  10. parameters = {
  11. 'max_depth': [5, 10, 15, 20, 25],
  12. 'learning_rate': [0.01, 0.02, 0.05, 0.1, 0.15],
  13. 'n_estimators': [500, 1000, 2000, 3000, 5000],
  14. 'min_child_weight': [0, 2, 5, 10, 20],
  15. 'max_delta_step': [0, 0.2, 0.6, 1, 2],
  16. 'subsample': [0.6, 0.7, 0.8, 0.85, 0.95],
  17. 'colsample_bytree': [0.5, 0.6, 0.7, 0.8, 0.9],
  18. 'reg_alpha': [0, 0.25, 0.5, 0.75, 1],
  19. 'reg_lambda': [0.2, 0.4, 0.6, 0.8, 1],
  20. 'scale_pos_weight': [0.2, 0.4, 0.6, 0.8, 1]
  21. }
  22. xlf = xgb.XGBClassifier(max_depth=10,
  23. learning_rate=0.01,
  24. n_estimators=2000,
  25. silent=True,
  26. objective='multi:softmax',
  27. num_class=3 ,
  28. nthread=-1,
  29. gamma=0,
  30. min_child_weight=1,
  31. max_delta_step=0,
  32. subsample=0.85,
  33. colsample_bytree=0.7,
  34. colsample_bylevel=1,
  35. reg_alpha=0,
  36. reg_lambda=1,
  37. scale_pos_weight=1,
  38. seed=0,
  39. missing=None,
  40. verbosity=0) # 加上这句才能忽略warning提醒信息
  41. gs = GridSearchCV(xlf, param_grid=parameters, scoring='accuracy', cv=3)
  42. gs.fit(train_x, train_y)
  43. print("Best score: %0.3f" % gs.best_score_)
  44. print("Best parameters set: %s" % gs.best_params_ )

Best score: 0.933

Best parameters set: {‘max_depth’: 5}

3. LightGBM算法

LightGBM也是像XGBoost一样,是一类集成算法,他跟XGBoost总体来说是一样的,算法本质上与Xgboost没有出入,只是在XGBoost的基础上进行了优化,因此就不对原理进行重复介绍,在这里我们来看看几种算法的差别:

  • 优化速度和内存使用

    • 降低了计算每个分割增益的成本。
    • 使用直方图减法进一步提高速度。
    • 减少内存使用。
    • 减少并行学习的计算成本。
  • 稀疏优化

    • 用离散的bin替换连续的值。如果#bins较小,则可以使用较小的数据类型(例如uint8_t)来存储训练数据 。
    • 无需存储其他信息即可对特征数值进行预排序 。
  • 精度优化

    • 使用叶子数为导向的决策树建立算法而不是树的深度导向。
    • 分类特征的编码方式的优化
    • 通信网络的优化
    • 并行学习的优化
    • GPU支持

LightGBM的优点:
1)更快的训练效率
2)低内存使用
3)更高的准确率
4)支持并行化学习
5)可以处理大规模数据

1.速度对比:
速度对比.png

2.准确率对比:
准确率对比.png

3.内存使用量对比:
内存使用量.png

LightGBM参数说明:

推荐文档1:https://lightgbm.apachecn.org/#/docs/6 推荐文档2:https://lightgbm.readthedocs.io/en/latest/Parameters.html

1.核心参数:(括号内名称是别名)

  • objective(objective,app ,application):默认regression,用于设置损失函数

    • 回归问题:

      • L2损失:regression(regression_l2,l2,mean_squared_error,mse,l2_root,root_mean_squared_error,rmse)
      • L1损失:regression_l1(l1, mean_absolute_error, mae)
      • 其他损失:huber,fair,poisson,quantile,mape,gamma,tweedie
    • 二分类问题:二进制对数损失分类(或逻辑回归):binary

    • 多类别分类:

      • softmax目标函数: multiclass(softmax)
      • One-vs-All 目标函数:multiclassova(multiclass_ova,ova,ovr)
    • 交叉熵:

      • 用于交叉熵的目标函数(具有可选的线性权重):cross_entropy(xentropy)
      • 交叉熵的替代参数化:cross_entropy_lambda(xentlambda)
  • boosting :默认gbdt,设置提升类型,选项有gbdt,rf,dart,goss,别名:boosting_type,boost

    • gbdt(gbrt):传统的梯度提升决策树
    • rf(random_forest):随机森林
    • dart:多个加性回归树的DROPOUT方法 Dropouts meet Multiple Additive Regression Trees,参见:https://arxiv.org/abs/1505.01866
    • goss:基于梯度的单边采样 Gradient-based One-Side Sampling
  • data(train,train_data,train_data_file,data_filename):用于训练的数据或数据file

  • valid (test,valid_data,valid_data_file,test_data,test_data_file,valid_filenames):验证/测试数据的路径,LightGBM将输出这些数据的指标
  • num_iterations:默认=100,类型= INT
  • nestimators:提升迭代次数,**LightGBM构造用于多类分类问题的树num_class numiterations
  • learning_rate(shrinkage_rate,eta) :收缩率,默认=0.1
  • num_leaves(num_leaf,max_leaves,max_leaf) :默认=31,一棵树上的最大叶子数
  • tree_learner (tree,tree_type,tree_learner_type):默认=serial,可选:serial,feature,data,voting

    • serial:单台机器的 tree learner
    • feature:特征并行的 tree learner
    • data:数据并行的 tree learner
    • voting:投票并行的 tree learner
  • num_threads(num_thread, nthread):LightGBM 的线程数,为了更快的速度, 将此设置为真正的 CPU 内核数, 而不是线程的数量 (大多数 CPU 使用超线程来使每个 CPU 内核生成 2 个线程),当你的数据集小的时候不要将它设置的过大 (比如, 当数据集有 10,000 行时不要使用 64 线程),对于并行学习, 不应该使用全部的 CPU 内核, 因为这会导致网络性能不佳。

  • device(device_type):默认cpu,为树学习选择设备, 你可以使用 GPU 来获得更快的学习速度,可选cpu, gpu。
  • seed (random_seed,random_state):与其他种子相比,该种子具有较低的优先级,这意味着如果您明确设置其他种子,它将被覆盖。
  1. 用于控制模型学习过程的参数:
  • max_depth:限制树模型的最大深度. 这可以在 #data 小的情况下防止过拟合. 树仍然可以通过 leaf-wise 生长。
  • min_data_in_leaf: 默认=20,一个叶子上数据的最小数量. 可以用来处理过拟合。
  • min_sum_hessian_in_leaf(min_sum_hessian_per_leaf, min_sum_hessian, min_hessian):默认=1e-3,一个叶子上的最小 hessian 和. 类似于 min_data_in_leaf, 可以用来处理过拟合.
  • feature_fraction:default=1.0,如果 feature_fraction 小于 1.0, LightGBM 将会在每次迭代中随机选择部分特征. 例如, 如果设置为 0.8, 将会在每棵树训练之前选择 80% 的特征,可以用来加速训练,可以用来处理过拟合。
  • feature_fraction_seed:默认=2,feature_fraction 的随机数种子。
  • bagging_fraction(sub_row, subsample):默认=1,不进行重采样的情况下随机选择部分数据
  • bagging_freq(subsample_freq):bagging 的频率, 0 意味着禁用 bagging. k 意味着每 k 次迭代执行bagging
  • bagging_seed(bagging_fraction_seed) :默认=3,bagging 随机数种子。
  • early_stopping_round(early_stopping_rounds, early_stopping):默认=0,如果一个验证集的度量在 early_stopping_round 循环中没有提升, 将停止训练
  • lambda_l1(reg_alpha):L1正则化系数
  • lambda_l2(reg_lambda):L2正则化系数
  • min_split_gain(min_gain_to_split):执行切分的最小增益,默认=0.
  • cat_smooth:默认=10,用于分类特征,可以降低噪声在分类特征中的影响, 尤其是对数据很少的类别

3.度量参数:

  • metric:default={l2 for regression}, {binary_logloss for binary classification}, {ndcg for lambdarank}, type=multi-enum, options=l1, l2, ndcg, auc, binary_logloss, binary_error …

    • l1, absolute loss, alias=mean_absolute_error, mae
    • l2, square loss, alias=mean_squared_error, mse
    • l2_root, root square loss, alias=root_mean_squared_error, rmse
    • quantile, Quantile regression
    • huber, Huber loss
    • fair, Fair loss
    • poisson, Poisson regression
    • ndcg, NDCG
    • map, MAP
    • auc, AUC
    • binary_logloss, log loss
    • binary_error, 样本: 0 的正确分类, 1 错误分类
    • multi_logloss, mulit-class 损失日志分类
    • multi_error, error rate for mulit-class 出错率分类
    • xentropy, cross-entropy (与可选的线性权重), alias=cross_entropy
    • xentlambda, “intensity-weighted” 交叉熵, alias=cross_entropy_lambda
    • kldiv, Kullback-Leibler divergence, alias=kullback_leibler
    • 支持多指标, 使用 , 分隔
  • train_metric(training_metric, is_training_metric):默认=False,如果你需要输出训练的度量结果则设置 true

4.GPU 参数:

  • gpu_device_id:default为-1, 这个default意味着选定平台上的设备。

LightGBM与网格搜索结合调参:

参考代码:https://blog.csdn.net/u012735708/article/details/83749703

  1. import lightgbm as lgb
  2. from sklearn import metrics
  3. from sklearn.datasets import load_breast_cancer
  4. from sklearn.model_selection import train_test_split
  5. canceData=load_breast_cancer()
  6. X=canceData.data
  7. y=canceData.target
  8. X_train,X_test,y_train,y_test=train_test_split(X,y,random_state=0,test_size=0.2)
  9. ### 数据转换
  10. print('数据转换')
  11. lgb_train = lgb.Dataset(X_train, y_train, free_raw_data=False)
  12. lgb_eval = lgb.Dataset(X_test, y_test, reference=lgb_train,free_raw_data=False)
  13. ### 设置初始参数--不含交叉验证参数
  14. print('设置参数')
  15. params = {
  16. 'boosting_type': 'gbdt',
  17. 'objective': 'binary',
  18. 'metric': 'auc',
  19. 'nthread':4,
  20. 'learning_rate':0.1
  21. }
  22. ### 交叉验证(调参)
  23. print('交叉验证')
  24. max_auc = float('0')
  25. best_params = {}
  26. # 准确率
  27. print("调参1:提高准确率")
  28. for num_leaves in range(5,100,5):
  29. for max_depth in range(3,8,1):
  30. params['num_leaves'] = num_leaves
  31. params['max_depth'] = max_depth
  32. cv_results = lgb.cv(
  33. params,
  34. lgb_train,
  35. seed=1,
  36. nfold=5,
  37. metrics=['auc'],
  38. early_stopping_rounds=10,
  39. verbose_eval=True
  40. )
  41. mean_auc = pd.Series(cv_results['auc-mean']).max()
  42. boost_rounds = pd.Series(cv_results['auc-mean']).idxmax()
  43. if mean_auc >= max_auc:
  44. max_auc = mean_auc
  45. best_params['num_leaves'] = num_leaves
  46. best_params['max_depth'] = max_depth
  47. if ('num_leaves' in best_params.keys()) and ('max_depth' in best_params.keys()):
  48. params['num_leaves'] = best_params['num_leaves']
  49. params['max_depth'] = best_params['max_depth']
  50. # 过拟合
  51. print("调参2:降低过拟合")
  52. for max_bin in range(5,256,10):
  53. for min_data_in_leaf in range(1,102,10):
  54. params['max_bin'] = max_bin
  55. params['min_data_in_leaf'] = min_data_in_leaf
  56. cv_results = lgb.cv(
  57. params,
  58. lgb_train,
  59. seed=1,
  60. nfold=5,
  61. metrics=['auc'],
  62. early_stopping_rounds=10,
  63. verbose_eval=True
  64. )
  65. mean_auc = pd.Series(cv_results['auc-mean']).max()
  66. boost_rounds = pd.Series(cv_results['auc-mean']).idxmax()
  67. if mean_auc >= max_auc:
  68. max_auc = mean_auc
  69. best_params['max_bin']= max_bin
  70. best_params['min_data_in_leaf'] = min_data_in_leaf
  71. if ('max_bin' in best_params.keys()) and ('min_data_in_leaf' in best_params.keys()):
  72. params['min_data_in_leaf'] = best_params['min_data_in_leaf']
  73. params['max_bin'] = best_params['max_bin']
  74. print("调参3:降低过拟合")
  75. for feature_fraction in [0.6,0.7,0.8,0.9,1.0]:
  76. for bagging_fraction in [0.6,0.7,0.8,0.9,1.0]:
  77. for bagging_freq in range(0,50,5):
  78. params['feature_fraction'] = feature_fraction
  79. params['bagging_fraction'] = bagging_fraction
  80. params['bagging_freq'] = bagging_freq
  81. cv_results = lgb.cv(
  82. params,
  83. lgb_train,
  84. seed=1,
  85. nfold=5,
  86. metrics=['auc'],
  87. early_stopping_rounds=10,
  88. verbose_eval=True
  89. )
  90. mean_auc = pd.Series(cv_results['auc-mean']).max()
  91. boost_rounds = pd.Series(cv_results['auc-mean']).idxmax()
  92. if mean_auc >= max_auc:
  93. max_auc=mean_auc
  94. best_params['feature_fraction'] = feature_fraction
  95. best_params['bagging_fraction'] = bagging_fraction
  96. best_params['bagging_freq'] = bagging_freq
  97. if ('feature_fraction' in best_params.keys()) \
  98. and ('bagging_fraction' in best_params.keys()) \
  99. and ('bagging_freq' in best_params.keys()):
  100. params['feature_fraction'] = best_params['feature_fraction']
  101. params['bagging_fraction'] = best_params['bagging_fraction']
  102. params['bagging_freq'] = best_params['bagging_freq']
  103. print("调参4:降低过拟合")
  104. for lambda_l1 in [1e-5,1e-3,1e-1,0.0,0.1,0.3,0.5,0.7,0.9,1.0]:
  105. for lambda_l2 in [1e-5,1e-3,1e-1,0.0,0.1,0.4,0.6,0.7,0.9,1.0]:
  106. params['lambda_l1'] = lambda_l1
  107. params['lambda_l2'] = lambda_l2
  108. cv_results = lgb.cv(
  109. params,
  110. lgb_train,
  111. seed=1,
  112. nfold=5,
  113. metrics=['auc'],
  114. early_stopping_rounds=10,
  115. verbose_eval=True
  116. )
  117. mean_auc = pd.Series(cv_results['auc-mean']).max()
  118. boost_rounds = pd.Series(cv_results['auc-mean']).idxmax()
  119. if mean_auc >= max_auc:
  120. max_auc=mean_auc
  121. best_params['lambda_l1'] = lambda_l1
  122. best_params['lambda_l2'] = lambda_l2
  123. if ('lambda_l1'in best_params.keys()) and ('lambda_l2' in best_params.keys()):
  124. params['lambda_l1'] = best_params['lambda_l1']
  125. params['lambda_l2'] = best_params['lambda_l2']
  126. print("调参5:降低过拟合2")
  127. for min_split_gain in [0.0,0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1.0]:
  128. params['min_split_gain'] = min_split_gain
  129. cv_results = lgb.cv(
  130. params,
  131. lgb_train,
  132. seed=1,
  133. nfold=5,
  134. metrics=['auc'],
  135. early_stopping_rounds=10,
  136. verbose_eval=True
  137. )
  138. mean_auc = pd.Series(cv_results['auc-mean']).max()
  139. boost_rounds = pd.Series(cv_results['auc-mean']).idxmax()
  140. if mean_auc >= max_auc:
  141. max_auc=mean_auc
  142. best_params['min_split_gain'] = min_split_gain
  143. if 'min_split_gain' in best_params.keys():
  144. params['min_split_gain'] = best_params['min_split_gain']
  145. print(best_params)
  1. 数据转换
  2. 设置参数
  3. 交叉验证
  4. 调参1:提高准确率
  5. [1] cv_agg's auc: 0.939969 + 0.0130986
  6. [2] cv_agg's auc: 0.956792 + 0.017985
  7. [3] cv_agg's auc: 0.967764 + 0.0117776
  8. [4] cv_agg's auc: 0.968966 + 0.0146079
  9. [5] cv_agg's auc: 0.973615 + 0.00951405
  10. [6] cv_agg's auc: 0.97628 + 0.0091161
  11. ... ...
  12. [59] cv_agg's auc: 0.987356 + 0.00997021
  13. [60] cv_agg's auc: 0.987252 + 0.0101933
  14. {'num_leaves': 95, 'max_depth': 5}

{‘bagging_fraction’: 0.7, ‘bagging_freq’: 30, ‘feature_fraction’: 0.8, ‘lambda_l1’: 0.1, ‘lambda_l2’: 0.0, ‘max_bin’: 255, ‘max_depth’: 4, ‘min_data_in_leaf’: 81, ‘min_split_gain’: 0.1, ‘num_leaves’: 10}

4. 结语

本章中,我们主要探讨了基于Boosting方式的集成方法,其中主要讲解了基于错误率驱动的Adaboost,基于残差改进的提升树,基于梯度提升的GBDT,基于泰勒二阶近似的Xgboost以及LightGBM。在实际的比赛或者工程中,基于Boosting的集成学习方式是非常有效且应用非常广泛的。更多的学习有待读者更深入阅读文献,包括原作者论文以及论文复现等。下一章我们即将探讨另一种集成学习方式:Stacking集成学习方式,这种集成方式虽然没有Boosting应用广泛,但是在比赛中或许能让你的模型更加出众。

5. 本章作业

本章在最后介绍LightGBM的时候并没有详细介绍它的原理以及它与XGBoost的不一样的地方,希望读者好好看看别的文章分享,总结LigntGBM与XGBoost的不同,然后使用一个具体的案例体现两者的不同。