Java 类名:com.alibaba.alink.operator.stream.dataproc.LookupStreamOp
Python 类名:LookupStreamOp

功能介绍

支持数据查找功能,支持多个key的查找,并将查找后的结果中的value列添加到待查询数据后面。与SQl语法中的inner join功能类似,当不存在重复的key时
LookupBatchOp().setMapKeyCols(“key_col_A”).setMapValueCols(“value_col”).setSelectedCols(“key_col_B”).linkFrom(A, B)与
“SELECT A.value_col FROM A INNER JOIN B ON A.key_col_A = B.key_col_B”,但是需要注意:当数据B中存在多行相同的key时,只保留一个value,不会找到所有的value。
Table A

| key_col_A | value_col | | —- | —- |

| Bob | 98 |

| Tom | 72 |

Table B

| key_col_B | age | | —- | —- |

| Bob | 11 |

| Denny | 10 |

查找结果

| key_col_B | age | value_col | | —- | —- | —- |

| Bob | 11 | 98 |

| Denny | 10 | null |

参数说明

| 名称 | 中文名称 | 描述 | 类型 | 是否必须? | 取值范围 | 默认值 | | —- | —- | —- | —- | —- | —- | —- |

| selectedCols | 选择的列名 | 计算列对应的列名列表 | String[] | ✓ | | |

| mapKeyCols | Key列名 | 模型中对应的查找等值的列名 | String[] | | | null |

| mapValueCols | Values列名 | 模型中需要拼接到样本中的列名 | String[] | | | null |

| modelFilePath | 模型的文件路径 | 模型的文件路径 | String | | | null |

| outputCols | 输出结果列列名数组 | 输出结果列列名数组,可选,默认null | String[] | | | null |

| reservedCols | 算法保留列名 | 算法保留列 | String[] | | | null |

| numThreads | 组件多线程线程个数 | 组件多线程线程个数 | Integer | | | 1 |

| modelStreamFilePath | 模型流的文件路径 | 模型流的文件路径 | String | | | null |

| modelStreamScanInterval | 扫描模型路径的时间间隔 | 描模型路径的时间间隔,单位秒 | Integer | | | 10 |

| modelStreamStartTime | 模型流的起始时间 | 模型流的起始时间。默认从当前时刻开始读。使用yyyy-mm-dd hh:mm:ss.fffffffff格式,详见Timestamp.valueOf(String s) | String | | | null |

| modelStreamUpdateMethod | 模型更新方法 | 模型更新方法,可选COMPLETE(全量更新)或者 INCREMENT(增量更新) | String | | “COMPLETE”, “INCREMENT” | “COMPLETE” |

代码示例

Python 代码

  1. from pyalink.alink import *
  2. import pandas as pd
  3. useLocalEnv(1)
  4. data_df = pd.DataFrame([
  5. ["10", 2.0],
  6. ["1", 2.0],
  7. ["-3", 2.0],
  8. ["5", 1.0]
  9. ])
  10. inOp = StreamOperator.fromDataframe(data_df, schemaStr='f0 string, f1 double')
  11. model_df = pd.DataFrame([
  12. ["1", "value1"],
  13. ["2", "value2"],
  14. ["5", "value5"]
  15. ])
  16. modelOp = BatchOperator.fromDataframe(model_df, schemaStr="key_col string, value_col string")
  17. LookupStreamOp(modelOp)\
  18. .setMapKeyCols(["key_col"])\
  19. .setMapValueCols(["value_col"]) \
  20. .setSelectedCols(["f0"])\
  21. .linkFrom(inOp)\
  22. .print()
  23. StreamOperator.execute()

Java 代码

  1. import org.apache.flink.types.Row;
  2. import com.alibaba.alink.operator.batch.BatchOperator;
  3. import com.alibaba.alink.operator.batch.source.MemSourceBatchOp;
  4. import com.alibaba.alink.operator.stream.StreamOperator;
  5. import com.alibaba.alink.operator.stream.dataproc.LookupStreamOp;
  6. import com.alibaba.alink.operator.stream.source.MemSourceStreamOp;
  7. import org.junit.Test;
  8. import java.util.Arrays;
  9. import java.util.List;
  10. public class LookupStreamOpTest {
  11. @Test
  12. public void testLookupStreamOp() throws Exception {
  13. List <Row> data_df = Arrays.asList(
  14. Row.of("10", 2.0),
  15. Row.of("1", 2.0),
  16. Row.of("-3", 2.0),
  17. Row.of("5", 1.0)
  18. );
  19. StreamOperator <?> inOp = new MemSourceStreamOp(data_df, "f0 string, f1 double");
  20. List <Row> model_df = Arrays.asList(
  21. Row.of("1", "value1"),
  22. Row.of("2", "value2"),
  23. Row.of("5", "value5")
  24. );
  25. BatchOperator <?> modelOp = new MemSourceBatchOp(model_df, "key_col string, value_col string");
  26. new LookupStreamOp(modelOp)
  27. .setMapKeyCols("key_col")
  28. .setMapValueCols("value_col")
  29. .setSelectedCols("f0")
  30. .linkFrom(inOp)
  31. .print();
  32. StreamOperator.execute();
  33. }
  34. }

脚本输出结果

| f0 | f1 | value_col | | —- | —- | —- |

| 10 | 2.0 | null |

| 1 | 2.0 | value1 |

| -3 | 2.0 | null |

| 5 | 1.0 | value5 |