Java 类名:com.alibaba.alink.operator.batch.classification.GbdtTrainBatchOp
Python 类名:GbdtTrainBatchOp

功能介绍

梯度提升决策树(Gradient Boosting Decision Trees)二分类,是经典的基于梯度提升的有监督学习模型,可以用来解决二分类问题

算法原理

梯度提升决策树模型构建了一个由多棵决策树组成的组合模型。每一棵决策树对应一个弱学习器,将这些弱学习器组合在一起,可以达到比较好的分类或回归效果。
梯度提升的基本递推结构为: 其中 通常为一棵 CART[2] 决策树, 为在这棵决策树下的分割变量, 为在 约束下的步长,通过这个递推结构即可得出最终模型。

算法使用

对于一些常见的二分类问题,都可以使用这个算法解决,模型拥有较好的性能,且拥有不错的可解释性,在实际场景中,应用较为广泛。

  • 支持连续特征和离散特征
  • 支持数据采样和特征采样
  • 目标分类必须为两个

    文献或出处

  1. Friedman J H. Greedy function approximation: a gradient boosting machine[J]. Annals of statistics, 2001: 1189-1232.
  2. Breiman, L., Friedman, J. H., Olshen, R. and Stone, C. (1983). Classification and Regression
    Trees. Wadsworth, Belmont, CA.
  3. weka
  4. xgboost
  5. lightgbm

    参数说明

    | 名称 | 中文名称 | 描述 | 类型 | 是否必须? | 取值范围 | 默认值 | | —- | —- | —- | —- | —- | —- | —- |

| labelCol | 标签列名 | 输入表中的标签列名 | String | ✓ | | |

| categoricalCols | 离散特征列名 | 离散特征列名 | String[] | | 所选列类型为 [BOOLEAN, DATE, DOUBLE, FLOAT, INTEGER, LONG, SHORT, STRING, TIME, TIMESTAMP] | |

| criteria | 树分裂的策略 | 树分裂的策略,可以为PAI, XGBOOST | String | | “PAI”, “XGBOOST” | “PAI” |

| featureCols | 特征列名数组 | 特征列名数组,默认全选 | String[] | | 所选列类型为 [BOOLEAN, DATE, DOUBLE, FLOAT, INTEGER, LONG, SHORT, STRING, TIME, TIMESTAMP] | null |

| featureImportanceType | 特征重要性类型 | 特征重要性类型(默认为GAIN) | String | | “WEIGHT”, “GAIN”, “COVER” | “GAIN” |

| featureSubsamplingRatio | 每棵树特征采样的比例 | 每棵树特征采样的比例,范围为(0, 1]。 | Double | | | 1.0 |

| gamma | xgboost中的l2正则项 | xgboost中的l2正则项 | Double | | | 0.0 |

| lambda | xgboost中的l1正则项 | xgboost中的l1正则项 | Double | | | 0.0 |

| learningRate | 学习率 | 学习率(默认为0.3) | Double | | | 0.3 |

| maxBins | 连续特征进行分箱的最大个数 | 连续特征进行分箱的最大个数。 | Integer | | | 128 |

| maxDepth | 树的深度限制 | 树的深度限制 | Integer | | | 6 |

| maxLeaves | 叶节点的最多个数 | 叶节点的最多个数 | Integer | | | 2147483647 |

| minInfoGain | 分裂的最小增益 | 分裂的最小增益 | Double | | | 0.0 |

| minSampleRatioPerChild | 子节点占父节点的最小样本比例 | 子节点占父节点的最小样本比例 | Double | | | 0.0 |

| minSamplesPerLeaf | 叶节点的最小样本个数 | 叶节点的最小样本个数 | Integer | | | 100 |

| minSumHessianPerLeaf | 叶子节点最小Hessian值 | 叶子节点最小Hessian值(默认为0) | Double | | | 0.0 |

| newtonStep | 是否使用二阶梯度 | 是否使用二阶梯度 | Boolean | | | true |

| numTrees | 模型中树的棵数 | 模型中树的棵数 | Integer | | | 100 |

| subsamplingRatio | 每棵树的样本采样比例或采样行数 | 每棵树的样本采样比例或采样行数,行数上限100w行 | Double | | | 1.0 |

| vectorCol | 向量列名 | 向量列对应的列名,默认值是null | String | | 所选列类型为 [DENSE_VECTOR, SPARSE_VECTOR, STRING, VECTOR] | null |

| weightCol | 权重列名 | 权重列对应的列名 | String | | 所选列类型为 [BIGDECIMAL, BIGINTEGER, BYTE, DOUBLE, FLOAT, INTEGER, LONG, SHORT] | null |

参数建议

对于训练效果来说,比较重要的参数是 树的棵树+学习率、叶子节点最小样本数、单颗树最大深度、特征采样比例。

代码示例

Python 代码

  1. from pyalink.alink import *
  2. import pandas as pd
  3. useLocalEnv(1)
  4. df = pd.DataFrame([
  5. [1.0, "A", 0, 0, 0],
  6. [2.0, "B", 1, 1, 0],
  7. [3.0, "C", 2, 2, 1],
  8. [4.0, "D", 3, 3, 1]
  9. ])
  10. batchSource = BatchOperator.fromDataframe(
  11. df, schemaStr=' f0 double, f1 string, f2 int, f3 int, label int')
  12. streamSource = StreamOperator.fromDataframe(
  13. df, schemaStr=' f0 double, f1 string, f2 int, f3 int, label int')
  14. trainOp = GbdtTrainBatchOp()\
  15. .setLearningRate(1.0)\
  16. .setNumTrees(3)\
  17. .setMinSamplesPerLeaf(1)\
  18. .setLabelCol('label')\
  19. .setFeatureCols(['f0', 'f1', 'f2', 'f3'])\
  20. .linkFrom(batchSource)
  21. predictBatchOp = GbdtPredictBatchOp()\
  22. .setPredictionDetailCol('pred_detail')\
  23. .setPredictionCol('pred')
  24. predictStreamOp = GbdtPredictStreamOp(trainOp)\
  25. .setPredictionDetailCol('pred_detail')\
  26. .setPredictionCol('pred')
  27. predictBatchOp.linkFrom(trainOp, batchSource).print()
  28. predictStreamOp.linkFrom(streamSource).print()
  29. StreamOperator.execute()

Java 代码

  1. import org.apache.flink.types.Row;
  2. import com.alibaba.alink.operator.batch.BatchOperator;
  3. import com.alibaba.alink.operator.batch.classification.GbdtPredictBatchOp;
  4. import com.alibaba.alink.operator.batch.classification.GbdtTrainBatchOp;
  5. import com.alibaba.alink.operator.batch.source.MemSourceBatchOp;
  6. import com.alibaba.alink.operator.stream.StreamOperator;
  7. import com.alibaba.alink.operator.stream.classification.GbdtPredictStreamOp;
  8. import com.alibaba.alink.operator.stream.source.MemSourceStreamOp;
  9. import org.junit.Test;
  10. import java.util.Arrays;
  11. import java.util.List;
  12. public class GbdtTrainBatchOpTest {
  13. @Test
  14. public void testGbdtTrainBatchOp() throws Exception {
  15. List <Row> df = Arrays.asList(
  16. Row.of(1.0, "A", 0, 0, 0),
  17. Row.of(2.0, "B", 1, 1, 0),
  18. Row.of(3.0, "C", 2, 2, 1),
  19. Row.of(4.0, "D", 3, 3, 1)
  20. );
  21. BatchOperator <?> batchSource = new MemSourceBatchOp(
  22. df, " f0 double, f1 string, f2 int, f3 int, label int");
  23. StreamOperator <?> streamSource = new MemSourceStreamOp(
  24. df, " f0 double, f1 string, f2 int, f3 int, label int");
  25. BatchOperator <?> trainOp = new GbdtTrainBatchOp()
  26. .setLearningRate(1.0)
  27. .setNumTrees(3)
  28. .setMinSamplesPerLeaf(1)
  29. .setLabelCol("label")
  30. .setFeatureCols("f0", "f1", "f2", "f3")
  31. .linkFrom(batchSource);
  32. BatchOperator <?> predictBatchOp = new GbdtPredictBatchOp()
  33. .setPredictionDetailCol("pred_detail")
  34. .setPredictionCol("pred");
  35. StreamOperator <?> predictStreamOp = new GbdtPredictStreamOp(trainOp)
  36. .setPredictionDetailCol("pred_detail")
  37. .setPredictionCol("pred");
  38. predictBatchOp.linkFrom(trainOp, batchSource).print();
  39. predictStreamOp.linkFrom(streamSource).print();
  40. StreamOperator.execute();
  41. }
  42. }

运行结果

| f0 | f1 | f2 | f3 | label | pred | pred_detail | | —- | —- | —- | —- | —- | —- | —- |

| 1.0000 | A | 0 | 0 | 0 | 0 | {“0”:0.9849144946061075,”1”:0.01508550539389248} |

| 2.0000 | B | 1 | 1 | 0 | 0 | {“0”:0.9849144946061075,”1”:0.01508550539389248} |

| 3.0000 | C | 2 | 2 | 1 | 1 | {“0”:0.015085505393892529,”1”:0.9849144946061075} |

| 4.0000 | D | 3 | 3 | 1 | 1 | {“0”:0.015085505393892529,”1”:0.9849144946061075} |