Java 类名:com.alibaba.alink.operator.batch.classification.GbdtTrainBatchOp
Python 类名:GbdtTrainBatchOp
功能介绍
梯度提升决策树(Gradient Boosting Decision Trees)二分类,是经典的基于梯度提升的有监督学习模型,可以用来解决二分类问题
算法原理
梯度提升决策树模型构建了一个由多棵决策树组成的组合模型。每一棵决策树对应一个弱学习器,将这些弱学习器组合在一起,可以达到比较好的分类或回归效果。
梯度提升的基本递推结构为:
其中 通常为一棵 CART[2] 决策树, 为在这棵决策树下的分割变量, 为在 约束下的步长,通过这个递推结构即可得出最终模型。
算法使用
对于一些常见的二分类问题,都可以使用这个算法解决,模型拥有较好的性能,且拥有不错的可解释性,在实际场景中,应用较为广泛。
- Friedman J H. Greedy function approximation: a gradient boosting machine[J]. Annals of statistics, 2001: 1189-1232.
- Breiman, L., Friedman, J. H., Olshen, R. and Stone, C. (1983). Classification and Regression
Trees. Wadsworth, Belmont, CA. - weka
- xgboost
- lightgbm
参数说明
| 名称 | 中文名称 | 描述 | 类型 | 是否必须? | 取值范围 | 默认值 | | —- | —- | —- | —- | —- | —- | —- |
| labelCol | 标签列名 | 输入表中的标签列名 | String | ✓ | | |
| categoricalCols | 离散特征列名 | 离散特征列名 | String[] | | 所选列类型为 [BOOLEAN, DATE, DOUBLE, FLOAT, INTEGER, LONG, SHORT, STRING, TIME, TIMESTAMP] | |
| criteria | 树分裂的策略 | 树分裂的策略,可以为PAI, XGBOOST | String | | “PAI”, “XGBOOST” | “PAI” |
| featureCols | 特征列名数组 | 特征列名数组,默认全选 | String[] | | 所选列类型为 [BOOLEAN, DATE, DOUBLE, FLOAT, INTEGER, LONG, SHORT, STRING, TIME, TIMESTAMP] | null |
| featureImportanceType | 特征重要性类型 | 特征重要性类型(默认为GAIN) | String | | “WEIGHT”, “GAIN”, “COVER” | “GAIN” |
| featureSubsamplingRatio | 每棵树特征采样的比例 | 每棵树特征采样的比例,范围为(0, 1]。 | Double | | | 1.0 |
| gamma | xgboost中的l2正则项 | xgboost中的l2正则项 | Double | | | 0.0 |
| lambda | xgboost中的l1正则项 | xgboost中的l1正则项 | Double | | | 0.0 |
| learningRate | 学习率 | 学习率(默认为0.3) | Double | | | 0.3 |
| maxBins | 连续特征进行分箱的最大个数 | 连续特征进行分箱的最大个数。 | Integer | | | 128 |
| maxDepth | 树的深度限制 | 树的深度限制 | Integer | | | 6 |
| maxLeaves | 叶节点的最多个数 | 叶节点的最多个数 | Integer | | | 2147483647 |
| minInfoGain | 分裂的最小增益 | 分裂的最小增益 | Double | | | 0.0 |
| minSampleRatioPerChild | 子节点占父节点的最小样本比例 | 子节点占父节点的最小样本比例 | Double | | | 0.0 |
| minSamplesPerLeaf | 叶节点的最小样本个数 | 叶节点的最小样本个数 | Integer | | | 100 |
| minSumHessianPerLeaf | 叶子节点最小Hessian值 | 叶子节点最小Hessian值(默认为0) | Double | | | 0.0 |
| newtonStep | 是否使用二阶梯度 | 是否使用二阶梯度 | Boolean | | | true |
| numTrees | 模型中树的棵数 | 模型中树的棵数 | Integer | | | 100 |
| subsamplingRatio | 每棵树的样本采样比例或采样行数 | 每棵树的样本采样比例或采样行数,行数上限100w行 | Double | | | 1.0 |
| vectorCol | 向量列名 | 向量列对应的列名,默认值是null | String | | 所选列类型为 [DENSE_VECTOR, SPARSE_VECTOR, STRING, VECTOR] | null |
| weightCol | 权重列名 | 权重列对应的列名 | String | | 所选列类型为 [BIGDECIMAL, BIGINTEGER, BYTE, DOUBLE, FLOAT, INTEGER, LONG, SHORT] | null |
参数建议
对于训练效果来说,比较重要的参数是 树的棵树+学习率、叶子节点最小样本数、单颗树最大深度、特征采样比例。
代码示例
Python 代码
from pyalink.alink import *
import pandas as pd
useLocalEnv(1)
df = pd.DataFrame([
[1.0, "A", 0, 0, 0],
[2.0, "B", 1, 1, 0],
[3.0, "C", 2, 2, 1],
[4.0, "D", 3, 3, 1]
])
batchSource = BatchOperator.fromDataframe(
df, schemaStr=' f0 double, f1 string, f2 int, f3 int, label int')
streamSource = StreamOperator.fromDataframe(
df, schemaStr=' f0 double, f1 string, f2 int, f3 int, label int')
trainOp = GbdtTrainBatchOp()\
.setLearningRate(1.0)\
.setNumTrees(3)\
.setMinSamplesPerLeaf(1)\
.setLabelCol('label')\
.setFeatureCols(['f0', 'f1', 'f2', 'f3'])\
.linkFrom(batchSource)
predictBatchOp = GbdtPredictBatchOp()\
.setPredictionDetailCol('pred_detail')\
.setPredictionCol('pred')
predictStreamOp = GbdtPredictStreamOp(trainOp)\
.setPredictionDetailCol('pred_detail')\
.setPredictionCol('pred')
predictBatchOp.linkFrom(trainOp, batchSource).print()
predictStreamOp.linkFrom(streamSource).print()
StreamOperator.execute()
Java 代码
import org.apache.flink.types.Row;
import com.alibaba.alink.operator.batch.BatchOperator;
import com.alibaba.alink.operator.batch.classification.GbdtPredictBatchOp;
import com.alibaba.alink.operator.batch.classification.GbdtTrainBatchOp;
import com.alibaba.alink.operator.batch.source.MemSourceBatchOp;
import com.alibaba.alink.operator.stream.StreamOperator;
import com.alibaba.alink.operator.stream.classification.GbdtPredictStreamOp;
import com.alibaba.alink.operator.stream.source.MemSourceStreamOp;
import org.junit.Test;
import java.util.Arrays;
import java.util.List;
public class GbdtTrainBatchOpTest {
@Test
public void testGbdtTrainBatchOp() throws Exception {
List <Row> df = Arrays.asList(
Row.of(1.0, "A", 0, 0, 0),
Row.of(2.0, "B", 1, 1, 0),
Row.of(3.0, "C", 2, 2, 1),
Row.of(4.0, "D", 3, 3, 1)
);
BatchOperator <?> batchSource = new MemSourceBatchOp(
df, " f0 double, f1 string, f2 int, f3 int, label int");
StreamOperator <?> streamSource = new MemSourceStreamOp(
df, " f0 double, f1 string, f2 int, f3 int, label int");
BatchOperator <?> trainOp = new GbdtTrainBatchOp()
.setLearningRate(1.0)
.setNumTrees(3)
.setMinSamplesPerLeaf(1)
.setLabelCol("label")
.setFeatureCols("f0", "f1", "f2", "f3")
.linkFrom(batchSource);
BatchOperator <?> predictBatchOp = new GbdtPredictBatchOp()
.setPredictionDetailCol("pred_detail")
.setPredictionCol("pred");
StreamOperator <?> predictStreamOp = new GbdtPredictStreamOp(trainOp)
.setPredictionDetailCol("pred_detail")
.setPredictionCol("pred");
predictBatchOp.linkFrom(trainOp, batchSource).print();
predictStreamOp.linkFrom(streamSource).print();
StreamOperator.execute();
}
}
运行结果
| f0 | f1 | f2 | f3 | label | pred | pred_detail | | —- | —- | —- | —- | —- | —- | —- |
| 1.0000 | A | 0 | 0 | 0 | 0 | {“0”:0.9849144946061075,”1”:0.01508550539389248} |
| 2.0000 | B | 1 | 1 | 0 | 0 | {“0”:0.9849144946061075,”1”:0.01508550539389248} |
| 3.0000 | C | 2 | 2 | 1 | 1 | {“0”:0.015085505393892529,”1”:0.9849144946061075} |
| 4.0000 | D | 3 | 3 | 1 | 1 | {“0”:0.015085505393892529,”1”:0.9849144946061075} |