Java 类名:com.alibaba.alink.operator.stream.feature.EqualWidthDiscretizerPredictStreamOp
Python 类名:EqualWidthDiscretizerPredictStreamOp
功能介绍
等宽离散可以计算选定数值列的分位点,每个区间都有相同的组距,也就是数据范围/组数,通过训练可以得到一系列分为点,
然后使用这些分位点进行预测。
其中可以所有列使用同一个分组数量,也可以每一列对应一个分组数量。预测结果可以是特征值或一系列0/1离散特征。
编码结果
Encode ——> INDEX
预测结果为单个token的index
Encode ——> VECTOR
预测结果为稀疏向量:
1. dropLast为true,向量中非零元个数为0或者1
2. dropLast为false,向量中非零元个数必定为1
Encode ——> ASSEMBLED_VECTOR
编码方式为”ASSEMBLED_VECTOR”时,必须设置一个输出列,输出结果为稀疏向量,是各列VECTOR格式的预测,按照选择顺序拼接的结果。
向量维度
Encode ——> Vector
numBuckets: 训练参数
dropLast: 预测参数
handleInvalid: 预测参数
Token index
Encode ——> Vector
1. 正常数据: 唯一的非零元为数据所在的bucket,若 dropLast为true, 最大的bucket的值会被丢掉,预测结果为全零元
2. null:
2.1 handleInvalid为keep: 唯一的非零元为:numBuckets - dropLast(true: 1, false: 0)
2.2 handleInvalid为skip: null
2.3 handleInvalid为error: 报错
参数说明
| 名称 | 中文名称 | 描述 | 类型 | 是否必须? | 取值范围 | 默认值 | | —- | —- | —- | —- | —- | —- | —- |
| selectedCols | 选择的列名 | 计算列对应的列名列表 | String[] | ✓ | | |
| dropLast | 是否删除最后一个元素 | 删除最后一个元素是为了保证线性无关性。默认true | Boolean | | | true |
| encode | 编码方法 | 编码方法 | String | | “VECTOR”, “ASSEMBLED_VECTOR”, “INDEX” | “INDEX” |
| handleInvalid | 未知token处理策略 | 未知token处理策略。”keep”表示用最大id加1代替, “skip”表示补null, “error”表示抛异常 | String | | “KEEP”, “ERROR”, “SKIP” | “KEEP” |
| modelFilePath | 模型的文件路径 | 模型的文件路径 | String | | | null |
| outputCols | 输出结果列列名数组 | 输出结果列列名数组,可选,默认null | String[] | | | null |
| reservedCols | 算法保留列名 | 算法保留列 | String[] | | | null |
| numThreads | 组件多线程线程个数 | 组件多线程线程个数 | Integer | | | 1 |
| modelStreamFilePath | 模型流的文件路径 | 模型流的文件路径 | String | | | null |
| modelStreamScanInterval | 扫描模型路径的时间间隔 | 描模型路径的时间间隔,单位秒 | Integer | | | 10 |
| modelStreamStartTime | 模型流的起始时间 | 模型流的起始时间。默认从当前时刻开始读。使用yyyy-mm-dd hh:mm:ss.fffffffff格式,详见Timestamp.valueOf(String s) | String | | | null |
代码示例
Python 代码
from pyalink.alink import *
import pandas as pd
useLocalEnv(1)
df = pd.DataFrame([
["a", 1, 1.1],
["b", -2, 0.9],
["c", 100, -0.01],
["d", -99, 100.9],
["a", 1, 1.1],
["b", -2, 0.9],
["c", 100, -0.01],
["d", -99, 100.9]
])
batchSource = BatchOperator.fromDataframe(df,schemaStr="f_string string, f_long long, f_double double")
streamSource = StreamOperator.fromDataframe(df,schemaStr="f_string string, f_long long, f_double double")
trainOp = EqualWidthDiscretizerTrainBatchOp(). \
setSelectedCols(['f_long', 'f_double']). \
setNumBuckets(5). \
linkFrom(batchSource)
EqualWidthDiscretizerPredictStreamOp(trainOp). \
setSelectedCols(['f_long', 'f_double']). \
linkFrom(streamSource). \
print()
trainOp = EqualWidthDiscretizerTrainBatchOp().setSelectedCols(['f_long', 'f_double']). \
setNumBucketsArray([5,3]). \
linkFrom(batchSource)
EqualWidthDiscretizerPredictStreamOp(trainOp). \
setSelectedCols(['f_long', 'f_double']). \
linkFrom(streamSource). \
print()
EqualWidthDiscretizerPredictStreamOp(trainOp). \
setEncode("ASSEMBLED_VECTOR"). \
setSelectedCols(['f_long', 'f_double']). \
setOutputCols(["assVec"]). \
linkFrom(streamSource).print()
StreamOperator.execute()
Java 代码
import org.apache.flink.types.Row;
import com.alibaba.alink.operator.batch.BatchOperator;
import com.alibaba.alink.operator.batch.feature.EqualWidthDiscretizerPredictBatchOp;
import com.alibaba.alink.operator.batch.feature.EqualWidthDiscretizerTrainBatchOp;
import com.alibaba.alink.operator.batch.source.MemSourceBatchOp;
import com.alibaba.alink.operator.stream.StreamOperator;
import com.alibaba.alink.operator.stream.feature.EqualWidthDiscretizerPredictStreamOp;
import com.alibaba.alink.operator.stream.source.MemSourceStreamOp;
import com.alibaba.alink.params.feature.HasEncodeWithoutWoe.Encode;
import org.junit.Test;
import java.util.Arrays;
import java.util.List;
public class EqualWidthDiscretizerTrainBatchOpTest {
@Test
public void testEqualWidthDiscretizerTrainBatchOp2() throws Exception {
List <Row> df = Arrays.asList(
Row.of("a", 1, 1.1),
Row.of("b", -2, 0.9),
Row.of("c", 100, -0.01),
Row.of("d", -99, 100.9),
Row.of("a", 1, 1.1),
Row.of("b", -2, 0.9),
Row.of("c", 100, -0.01),
Row.of("d", -99, 100.9)
);
BatchOperator <?> batchSource = new MemSourceBatchOp(df, "f_string string, f_long int, f_double double");
BatchOperator <?> trainOp = new EqualWidthDiscretizerTrainBatchOp().setSelectedCols("f_long", "f_double")
.setNumBuckets(5).linkFrom(batchSource);
new EqualWidthDiscretizerPredictStreamOp(trainOp).setSelectedCols("f_long","f_double")
.linkFrom(batchSource).print();
BatchOperator trainOp2 = new EqualWidthDiscretizerTrainBatchOp().setSelectedCols("f_long", "f_double")
.setNumBucketsArray(5,3).linkFrom(batchSource);
new EqualWidthDiscretizerPredictStreamOp(trainOp2).setSelectedCols("f_long","f_double")
.linkFrom(batchSource).print();
new EqualWidthDiscretizerPredictStreamOp(trainOp2).setSelectedCols("f_long","f_double")
.setEncode(Encode.ASSEMBLED_VECTOR)
.setOutputCols("assVec")
.linkFrom(batchSource).print();
}
}
运行结果
| f_string | f_long | f_double | | —- | —- | —- |
| a | 2 | 0 |
| b | 2 | 0 |
| c | 4 | 0 |
| d | 0 | 4 |
| a | 2 | 0 |
| b | 2 | 0 |
| c | 4 | 0 |
| d | 0 | 4 |
| f_string | f_long | f_double | | —- | —- | —- |
| a | 2 | 0 |
| b | 2 | 0 |
| c | 4 | 0 |
| d | 0 | 2 |
| a | 2 | 0 |
| b | 2 | 0 |
| c | 4 | 0 |
| d | 0 | 2 |
| f_string | f_long | f_double | assVec | | —- | —- | —- | —- |
| a | 1 | 1.1000 | $8$2:1.0 5:1.0 |
| b | -2 | 0.9000 | $8$2:1.0 5:1.0 |
| c | 100 | -0.0100 | $8$5:1.0 |
| d | -99 | 100.9000 | $8$0:1.0 |
| a | 1 | 1.1000 | $8$2:1.0 5:1.0 |
| b | -2 | 0.9000 | $8$2:1.0 5:1.0 |
| c | 100 | -0.0100 | $8$5:1.0 |
| d | -99 | 100.9000 | $8$0:1.0 |