Java 类名:com.alibaba.alink.operator.batch.classification.SoftmaxPredictBatchOp
Python 类名:SoftmaxPredictBatchOp

功能介绍

Softmax算法是Logistic回归算法的推广,Logistic回归主要是用来处理二分类问题,而Softmax回归则是处理多分类问题。

算法原理

面对多分类问题,建立代价函数,然后通过优化方法迭代求解出最优的模型参数。具体原理可参考文献。

算法使用

该算法经常应用到多分类问题中,类似情感分析、手写字识别等问题都可以使用Softmax算法,该算法支持稀疏和稠密两种输入样本。

文献或出处

[1] Brown, Peter F., et al. “Class-based n-gram models of natural language.” Computational linguistics 18.4 (1992): 467-480.
[2] Goodman, Joshua. “Classes for fast maximum entropy training.” 2001 IEEE International Conference on Acoustics, Speech, and Signal Processing. Proceedings (Cat. No. 01CH37221). Vol. 1. IEEE, 2001.

参数说明

| 名称 | 中文名称 | 描述 | 类型 | 是否必须? | 取值范围 | 默认值 | | —- | —- | —- | —- | —- | —- | —- |

| predictionCol | 预测结果列名 | 预测结果列名 | String | ✓ | | |

| modelFilePath | 模型的文件路径 | 模型的文件路径 | String | | | null |

| predictionDetailCol | 预测详细信息列名 | 预测详细信息列名 | String | | | |

| reservedCols | 算法保留列名 | 算法保留列 | String[] | | | null |

| vectorCol | 向量列名 | 向量列对应的列名,默认值是null | String | | 所选列类型为 [DENSE_VECTOR, SPARSE_VECTOR, STRING, VECTOR] | null |

| numThreads | 组件多线程线程个数 | 组件多线程线程个数 | Integer | | | 1 |

代码示例

Python 代码

  1. df_data = pd.DataFrame([
  2. [2, 1, 1],
  3. [3, 2, 1],
  4. [4, 3, 2],
  5. [2, 4, 1],
  6. [2, 2, 1],
  7. [4, 3, 2],
  8. [1, 2, 1],
  9. [5, 3, 3]
  10. ])
  11. batchData = BatchOperator.fromDataframe(df_data, schemaStr='f0 int, f1 int, label int')
  12. dataTest = batchData
  13. colnames = ["f0","f1"]
  14. lr = SoftmaxTrainBatchOp().setFeatureCols(colnames).setLabelCol("label")
  15. model = batchData.link(lr)
  16. predictor = SoftmaxPredictBatchOp().setPredictionCol("pred")
  17. predictor.linkFrom(model, dataTest).print()

Java 代码

  1. import org.apache.flink.types.Row;
  2. import com.alibaba.alink.operator.batch.BatchOperator;
  3. import com.alibaba.alink.operator.batch.classification.SoftmaxPredictBatchOp;
  4. import com.alibaba.alink.operator.batch.classification.SoftmaxTrainBatchOp;
  5. import com.alibaba.alink.operator.batch.source.MemSourceBatchOp;
  6. import org.junit.Test;
  7. import java.util.Arrays;
  8. import java.util.List;
  9. public class SoftmaxPredictBatchOpTest {
  10. @Test
  11. public void testSoftmaxPredictBatchOp() throws Exception {
  12. List <Row> df_data = Arrays.asList(
  13. Row.of(2, 1, 1),
  14. Row.of(3, 2, 1),
  15. Row.of(4, 3, 2),
  16. Row.of(2, 4, 1),
  17. Row.of(2, 2, 1),
  18. Row.of(4, 3, 2),
  19. Row.of(1, 2, 1),
  20. Row.of(5, 3, 3)
  21. );
  22. BatchOperator <?> batchData = new MemSourceBatchOp(df_data, "f0 int, f1 int, label int");
  23. BatchOperator dataTest = batchData;
  24. BatchOperator <?> lr = new SoftmaxTrainBatchOp().setFeatureCols("f0", "f1").setLabelCol("label");
  25. BatchOperator model = batchData.link(lr);
  26. BatchOperator <?> predictor = new SoftmaxPredictBatchOp().setPredictionCol("pred");
  27. predictor.linkFrom(model, dataTest).print();
  28. }
  29. }

运行结果

| f0 | f1 | label | pred | | —- | —- | —- | —- |

| 2 | 1 | 1 | 1 |

| 3 | 2 | 1 | 1 |

| 4 | 3 | 2 | 2 |

| 2 | 4 | 1 | 1 |

| 2 | 2 | 1 | 1 |

| 4 | 3 | 2 | 2 |

| 1 | 2 | 1 | 1 |

| 5 | 3 | 3 | 3 |