https://davidham3.github.io/blog/2019/04/10/pyspark%E8%AF%BB%E5%86%99hbase/

pyspark 读取 HBase

pyspark 读取 HBase 需要借助 Java 的类完成读写。
首先需要明确的是,HBase 中存储的是 byte[],也就是说,不管是什么样的数据,都需要先转换为 byte[] 后,才能存入 HBase。

基本方法

pyspark 读取 HBase 需要使用 SparkContextnewAPIHadoopRDD 这个方法,这个方法需要使用 Java 的类,用这些类读取 HBase
下面的示例代码默认 HBase 中的行键、列族名、列名和值都是字符串转成的 byte 数组:
read_hbase_pyspark.py

  1. # -*- coding:utf-8 -*-
  2. import json
  3. from pyspark import SparkContext
  4. from pyspark import SparkConf
  5. if __name__ == "__main__":
  6. conf = SparkConf().set("spark.executorEnv.PYTHONHASHSEED", "0")\
  7. .set("spark.kryoserializer.buffer.max", "2040mb")
  8. sc = SparkContext(appName='HBaseInputFormat', conf=conf)
  9. # 配置项要包含 zookeeper 的 ip
  10. zookeeper_host = 'zkServer'
  11. # 还要包含要读取的 HBase 表名
  12. hbase_table_name = 'testTable'
  13. conf = {"hbase.zookeeper.quorum": zookeeper_host, "hbase.mapreduce.inputtable": hbase_table_name}
  14. # 这个Java类用来将 HBase 的行键转换为字符串
  15. keyConv = "org.apache.spark.examples.pythonconverters.ImmutableBytesWritableToStringConverter"
  16. # 这个Java类用来将 HBase 查询得到的结果,转换为字符串
  17. valueConv = "org.apache.spark.examples.pythonconverters.HBaseResultToStringConverter"
  18. # 第一个参数是 hadoop 文件的输入类型
  19. # 第二个参数是 HBase rowkey 的类型
  20. # 第三个参数是 HBase 值的类型
  21. # 这三个参数不用改变
  22. # 读取后的 rdd,每个元素是一个键值对,(key, value)
  23. hbase_rdd = sc.newAPIHadoopRDD(
  24. "org.apache.hadoop.hbase.mapreduce.TableInputFormat",
  25. "org.apache.hadoop.hbase.io.ImmutableBytesWritable",
  26. "org.apache.hadoop.hbase.client.Result",
  27. keyConverter=keyConv,
  28. valueConverter=valueConv,
  29. conf=conf)
  30. # 读取后,将键值对 (key, value) 中的值 value,使用\n切分,用 flatMap 展开
  31. # 然后将键值对 (key, value) 中的值 value 使用 json.loads 解析,得到 dict
  32. hbase_rdd = hbase_rdd.flatMapValues(lambda v: v.split("\n")).mapValues(json.loads)
  33. output = hbase_rdd.collect()
  34. for (k, v) in output:
  35. print((k, v))

上述代码在提交给 spark 集群的时候,要指名用到的 Java 类的位置,这些类都在 spark-examples 这个包里面,这个包在 spark 目录下的 lib 里面。以 CDH 5.7.2 为例,CDH 集群中这个包的位置在 /opt/cloudera/parcels/CDH-5.7.2-1.cdh5.7.2.p0.18/lib/spark/lib/spark-examples-1.6.0-cdh5.7.2-hadoop2.6.0-cdh5.7.2.jar,所以提交命令为:

  1. spark-submit --master yarn --jars /opt/cloudera/parcels/CDH-5.7.2-1.cdh5.7.2.p0.18/lib/spark/lib/spark-examples-1.6.0-cdh5.7.2-hadoop2.6.0-cdh5.7.2.jar read_hbase_pyspark.py

所以,上述的 Java 类,核心都是认为 HBase 中所有的值,原本都是字符串,然后转换成 byte 数组后存入的 HBase,它在解析的时候,将读取到的 byte[] 转换为字符串后返回,所以我们拿到的值就是字符串。

进阶方法

对于其他类型的数据,转换为 byte 数组后存入 HBase,如果我们还使用上面的 Java 类去读取 HBase,那么我们拿到的字符串的值就是不正确的。
为了理解这些内容,我们首先要讨论 HBase 中值的存储结构。
HBase 是非结构化数据库,以行为单位,每行拥有一个行键 rowkey,对应的值可以表示为一个 map(python 中的 dict),举个例子,如果我们有一条记录,行键记为 “r1”,里面有 1 个列族(columnFamily) “A”,列族中有两列(qualifier),分别记为 “a” 和 “b”,对应的值分别为 “v1” 和 “v2”,那么表示成 json 字符串就是下面的形式:

  1. {
  2. "r1": {
  3. "A" : {
  4. "a": "v1",
  5. "b": "v2"
  6. }
  7. }
  8. }

上面这个 json 字符串就是上面那条记录在 HBase 中存储的示例,第一层的键表示行键(rowkey),对应的值表示这一行的值;第二层的键表示列族名(columnFamily),值表示这个列族下列的值;第三层的键表示列名(qualifier),对应的值(value)表示这个由行键、列族名、列名三项确定的一个单元格(Cell)内的值。所以上面这个例子中,只有一行,两个单元格。
下面我们针对 pyspark 读取 HBase 使用到的 org.apache.spark.examples.pythonconverters.HBaseResultToStringConverter 来讨论。
Java 的 API 在读取 HBase 的时候,会得到一个 Result 类型,这个 Result 就是查询结果。Result 可以遍历,里面拥有多个 Cell,也就是单元格。上面我们说了,每个单元格至少有 4 个内容:行键、列族名、列名、值。
HBaseResultToStringConverter 是由 scala 实现的一个类,它的功能是将 Java HBase API 的 Result 转换为 String,源码如下:

  1. package org.apache.spark.examples.pythonconverters
  2. import scala.collection.JavaConverters._
  3. import scala.util.parsing.json.JSONObject
  4. import org.apache.spark.api.python.Converter
  5. import org.apache.hadoop.hbase.client.{Put, Result}
  6. import org.apache.hadoop.hbase.util.Bytes
  7. import org.apache.hadoop.hbase.KeyValue.Type
  8. import org.apache.hadoop.hbase.CellUtil
  9. class HBaseResultToStringConverter extends Converter[Any, String] {
  10. override def convert(obj: Any): String = {
  11. val result = obj.asInstanceOf[Result]
  12. val output = result.listCells.asScala.map(cell =>
  13. Map(
  14. "row" -> Bytes.toStringBinary(CellUtil.cloneRow(cell)),
  15. "columnFamily" -> Bytes.toStringBinary(CellUtil.cloneFamily(cell)),
  16. "qualifier" -> Bytes.toStringBinary(CellUtil.cloneQualifier(cell)),
  17. "timestamp" -> cell.getTimestamp.toString,
  18. "type" -> Type.codeToType(cell.getTypeByte).toString,
  19. "value" -> Bytes.toStringBinary(CellUtil.cloneValue(cell))
  20. )
  21. )
  22. output.map(JSONObject(_).toString()).mkString("\n")
  23. }
  24. }

它完成的工作是遍历 Result 中的 Cell,每个 Cell 转换成一个 scala Map,键分别是行键、列族名、列名、时间戳、HBase 操作类型、值。最后每个 scala Map 被转换成 json 字符串,之间用 ‘\n’ 分隔。
这里的 CellUtil.CloneRowCellUtil.cloneFamilyCellUtil.cloneQualifierCellUtil.cloneValue 是我们主要使用的四个方法,这四个方法生成的都是 byte[],然后这四个 byte[] 都被 Bytes.toStringBinary 转换成了 String 类型。
所以,如果我们存入 HBase 的数据是 String 以外类型的,如 Float, Double, BigDecimal,那么这里使用 CellUtil 的方法拿到 byte[] 后,需要使用 Bytes 里面的对应方法转换为原来的类型,再转成字符串或其他类型,生成 json 字符串,然后返回,这样我们通过 pyspark 才能拿到正确的值。
下面是一个示例,我们的数据都是 java.math.BigDecimal 类型的值,存 HBase 的时候将他们转换为 byte[] 后进行了存储。那么解析的时候,就需要自定义一个处理 BigDecimal 的类:HBaseResultToBigDecimalToStringConverter

  1. package org.apache.spark.examples.pythonconverters
  2. import java.math.BigDecimal
  3. import scala.collection.JavaConverters._
  4. import scala.util.parsing.json.JSONObject
  5. import org.apache.spark.api.python.Converter
  6. import org.apache.hadoop.hbase.client.{Put, Result}
  7. import org.apache.hadoop.hbase.io.ImmutableBytesWritable
  8. import org.apache.hadoop.hbase.util.Bytes
  9. import org.apache.hadoop.hbase.KeyValue.Type
  10. import org.apache.hadoop.hbase.CellUtil
  11. class HBaseResultToBigDecimalToStringConverter extends Converter[Any, String] {
  12. override def convert(obj: Any): String = {
  13. val result = obj.asInstanceOf[Result]
  14. val output = result.listCells.asScala.map(cell =>
  15. Map(
  16. "row" -> Bytes.toStringBinary(CellUtil.cloneRow(cell)),
  17. "columnFamily" -> Bytes.toStringBinary(CellUtil.cloneFamily(cell)),
  18. "qualifier" -> Bytes.toStringBinary(CellUtil.cloneQualifier(cell)),
  19. "timestamp" -> cell.getTimestamp.toString,
  20. "type" -> Type.codeToType(cell.getTypeByte).toString,
  21. "value" -> Bytes.toBigDecimal(CellUtil.cloneValue(cell)).toString()
  22. )
  23. )
  24. output.map(JSONObject(_).toString()).mkString("\n")
  25. }
  26. }

上述代码中,引入了 java.math.BigDecimal,将 value 的解析进行了简单的修改,通过 CellUtil.cloneValue 拿到 byte[] 后,通过 Bytes.toBigDecimal 转换成 java.math.BigDecimal,然后使用 toString 方法转换成字符串。
这个类写完后,我们就可以对其进行编译,导出成 jar 包,在 pyspark 程序中指明,读取的时候,使用这个类解析 value。
这样源代码就改完了,需要编译成 jar 包。
首先安装 maven 3.6.0,下载后,解压,配置环境变量即可。
下载 spark 的源码,去 Apache Spark 官网,下载仓库中的源代码 spark-1.6.0.tgz
下载后解压,将根目录中的 scalastyle-config.xml 拷贝到 examples 目录下。
修改 examples/src/main/scala/org/apache/spark/examples/pythonconverters/HBaseConverters.scala,增加自己用的类。
修改 examples/pom.xml,将 <artifactId>spark-examples_2.10</artifactId> 修改为 <artifactId>spark-examples_2.10_my_converters</artifactId>
cd 到 examples 目录下,使用以下命令编译 spark-examples

  1. mvn clean install -pl :spark-examples_2.10_my_converters

编译途中保证全程联网,编译的时候会有一些警告,编译好的包在同级目录下的 target 中,有个叫 spark-examples_2.10_my_converters-1.6.0.jar 的文件。
然后就是使用这个包读取 HBase 中的 BigDecimal了:
我们使用 standalone 模式运行 pyspark 交互式界面:

  1. pyspark --master spark://host1:7077 --jars spark-examples_2.10_my_converters-1.6.0.jar

执行以下内容:

  1. import json
  2. zookeeper_host = 'host1'
  3. hbase_table_name = 'testTable'
  4. conf = {"hbase.zookeeper.quorum": zookeeper_host, "hbase.mapreduce.inputtable": hbase_table_name}
  5. keyConv = "org.apache.spark.examples.pythonconverters.ImmutableBytesWritableToStringConverter"
  6. # 注意这里,使用自己定义的Converter读取
  7. valueConv = "org.apache.spark.examples.pythonconverters.HBaseResultToBigDecimalToStringConverter"
  8. hbase_rdd = sc.newAPIHadoopRDD(
  9. "org.apache.hadoop.hbase.mapreduce.TableInputFormat",
  10. "org.apache.hadoop.hbase.io.ImmutableBytesWritable",
  11. "org.apache.hadoop.hbase.client.Result",
  12. keyConverter=keyConv,
  13. valueConverter=valueConv,
  14. conf=conf)
  15. hbase_rdd = hbase_rdd.flatMapValues(lambda v: v.split("\n")).mapValues(json.loads)
  16. hbase_rdd.take(1)

然后就可以看到结果了,如何验证读取的对不对呢,可以尝试将 valueConv 改回 HBaseResultToStringConverter,然后观察 value 的值。
以上就是如何通过修改 HBaseConverters.scala 让 pyspark 从 HBase 中读取 java.math.BigDecimal 的示例。

pyspark 写入 HBase

pyspark 写入 HBase 使用 SparkContextsaveAsNewAPIHadoopDataset,和读取的方法类似,也需要使用 Java 的类。
下面的方法要求存入 HBase 中的数据,行键、列族名、列名、值都为字符串
write_into_hbase_pyspark.py

  1. # -*- coding:utf-8 -*-
  2. from pyspark import SparkContext
  3. from pyspark import SparkConf
  4. if __name__ == "__main__":
  5. conf = SparkConf().set("spark.executorEnv.PYTHONHASHSEED", "0")\
  6. .set("spark.kryoserializer.buffer.max", "2040mb")
  7. sc = SparkContext(appName='HBaseOutputFormat', conf=conf)
  8. # 配置项要包含 zookeeper 的 ip
  9. zookeeper_host = 'zkServer'
  10. # 还要包含要写入的 HBase 表名
  11. hbase_table_name = 'testTable'
  12. conf = {"hbase.zookeeper.quorum": zookeeper_host,
  13. "hbase.mapred.outputtable": hbase_table_name,
  14. "mapreduce.outputformat.class": "org.apache.hadoop.hbase.mapreduce.TableOutputFormat",
  15. "mapreduce.job.output.key.class": "org.apache.hadoop.hbase.io.ImmutableBytesWritable",
  16. "mapreduce.job.output.value.class": "org.apache.hadoop.io.Writable"}
  17. keyConv = "org.apache.spark.examples.pythonconverters.StringToImmutableBytesWritableConverter"
  18. valueConv = "org.apache.spark.examples.pythonconverters.StringListToPutConverter"
  19. records = [
  20. ['row1', 'f1', 'q1', 'value1'],
  21. ['row2', 'f1', 'q1', 'value2'],
  22. ['row3', 'f1', 'q1', 'value3'],
  23. ['row4', 'f1', 'q1', 'value4']
  24. ]
  25. sc.parallelize(records)\
  26. .map(lambda x: (x[0], x))\
  27. .saveAsNewAPIHadoopDataset(
  28. conf=conf,
  29. keyConverter=keyConv,
  30. valueConverter=valueConv)

首先在控制台启动 HBase-shell

  1. hbase shell

然后创建表,表名为 testTable,只有一个列族,列族名为 f1:

  1. create 'testTable', 'f1'

使用 quit 退出 HBase-shell
提交 pyspark 程序:

  1. spark-submit --master spark://master:7077 --jars /opt/cloudera/parcels/CDH-5.7.2-1.cdh5.7.2.p0.18/lib/spark/lib/spark-examples-1.6.0-cdh5.7.2-hadoop2.6.0-cdh5.7.2.jar write_into_hbase_pyspark.py

运行完成后,再次进入 HBase-shell,运行:

  1. scan 'testTable'

可以看到类似下面的输出结果:

  1. hbase(main):001:0> scan 'testTable'
  2. ROW COLUMN+CELL
  3. row1 column=f1:q1, timestamp=1554892784494, value=value1
  4. row2 column=f1:q1, timestamp=1554892784494, value=value2
  5. row3 column=f1:q1, timestamp=1554892816961, value=value3
  6. row4 column=f1:q1, timestamp=1554892816961, value=value4
  7. 4 row(s) in 0.3330 seconds

这就完成了写入 HBase 的过程。
需要注意的是:rdd 中的每个元素,都必须是一个列表(list),不能是其他类型,如 tuple,而且每个列表内必须是 4 个元素,分别表示 [行键、列族名、列名、值],且每个元素都为 str 类型。
原因是 StringListToPutConverter 这个类做转换的时候需要将 rdd 中的元素,看作是一个 java.util.ArrayList[String]

  1. class StringListToPutConverter extends Converter[Any, Put] {
  2. override def convert(obj: Any): Put = {
  3. val output = obj.asInstanceOf[java.util.ArrayList[String]].asScala.map(Bytes.toBytes).toArray
  4. val put = new Put(output(0))
  5. put.add(output(1), output(2), output(3))
  6. }
  7. }

StringListToPutConverter 的工作原理是,将传入的元素强制类型转换为 java.util.ArrayList[String],将第一个元素作为行键、第二个元素作为列族名、第三个元素作为列名、第四个元素作为值,四个值都转换为 byte[] 后上传至 HBase。
所以我们可以修改这个类,实现存入类型的多样化。
举个例子,如果我想存入一个 java.math.BigDecimal,那实现的方法就是:在 pyspark 程序中,将数字转换成 str 类型,调用我们自己写的一个 converter:

  1. import java.math.BigDecimal
  2. class StringListToBigDecimalToPutConverter extends Converter[Any, Put] {
  3. override def convert(obj: Any): Put = {
  4. val output = obj.asInstanceOf[java.util.ArrayList[String]].asScala.toArray
  5. val put = new Put(Bytes.toBytes(output(0)))
  6. put.add(
  7. Bytes.toBytes(output(1)),
  8. Bytes.toBytes(output(2)),
  9. Bytes.toBytes(new BigDecimal(output(3)))
  10. )
  11. }
  12. }

就可以实现存入的值是 java.math.BigDecimal 了。

CDH 5.9 以前的版本,python3,master 选定为 yarn 时的 bug

CDH 5.9 以前的版本在使用 yarn 作为 spark master 的时候,如果使用 python3,会出现 yarn 內部 topology.py 这个文件引发的 bug。这个文件是 python2 的语法,我们使用 python3 运行任务的时候,python3 的解释器在处理这个文件时会出错。
解决方案是:将这个文件重写为 python3 的版本,每次在重启 yarn 之后,将这个文件复制到所有机器的 /etc/hadoop/conf.cloudera.yarn/目录下。
以下是 python3 版本的 topology.py
topology.py

  1. #!/usr/bin/env python
  2. #
  3. # Copyright (c) 2010-2012 Cloudera, Inc. All rights reserved.
  4. #
  5. '''
  6. This script is provided by CMF for hadoop to determine network/rack topology.
  7. It is automatically generated and could be replaced at any time. Any changes
  8. made to it will be lost when this happens.
  9. '''
  10. import os
  11. import sys
  12. import xml.dom.minidom
  13. def main():
  14. MAP_FILE = '{{CMF_CONF_DIR}}/topology.map'
  15. DEFAULT_RACK = '/default'
  16. if 'CMF_CONF_DIR' in MAP_FILE:
  17. # variable was not substituted. Use this file's dir
  18. MAP_FILE = os.path.join(os.path.dirname(__file__), "topology.map")
  19. # We try to keep the default rack to have the same
  20. # number of elements as the other hosts available.
  21. # There are bugs in some versions of Hadoop which
  22. # make the system error out.
  23. max_elements = 1
  24. map = dict()
  25. try:
  26. mapFile = open(MAP_FILE, 'r')
  27. dom = xml.dom.minidom.parse(mapFile)
  28. for node in dom.getElementsByTagName("node"):
  29. rack = node.getAttribute("rack")
  30. max_elements = max(max_elements, rack.count("/"))
  31. map[node.getAttribute("name")] = node.getAttribute("rack")
  32. except:
  33. default_rack = "".join([ DEFAULT_RACK for _ in range(max_elements)])
  34. print(default_rack)
  35. return -1
  36. default_rack = "".join([ DEFAULT_RACK for _ in range(max_elements)])
  37. if len(sys.argv)==1:
  38. print(default_rack)
  39. else:
  40. print(" ".join([map.get(i, default_rack) for i in sys.argv[1:]]))
  41. return 0
  42. if __name__ == "__main__":
  43. sys.exit(main())