在本文中,我们将讨论如何设置我们的开发环境以创建高质量的python代码以及如何自动执行一些繁琐的任务来加速部署。
我们将介绍以下步骤:
- 使用pipenv在隔离的虚拟环境中设置我们的依赖项
- 如何为多个作业设置项目结构
- 如何运行pyspark工作
- 如何使用Makefile 自动执行开发步骤
- 如何使用flake8测试代码的质量
- 如何使用pytest-spark为PySpark应用程序运行单元测试
- 运行测试覆盖率,看看我们是否使用pytest-cov创建了足够的单元测试
第1步:设置虚拟环境
虚拟环境有助于我们将特定应用程序的依赖关系与系统的整体依赖关系隔离开来。这很好,因为我们不会涉及现有库的依赖性问题,并且在单独的系统(例如docker容器或服务器)上安装或卸载它们更容易。对于此任务,我们将使用pipenv。
要在mac os系统上安装它,例如运行:
brew install pipenv
要为应用程序声明我们的依赖项(库),我们需要在项目的路径路径中创建一个Pipfile:
[[source]]
url = 'https://pypi.python.org/simple'
verify_ssl = true
name = 'pypi'
[requires]
python_version = "3.6"
[packages]
flake8 = "*"
pytest-spark = ">=0.4.4"
pyspark = ">=2.4.0"
pytest-cov = "*"
这里有三个组件。在[[source]]标签中,我们声明了下载所有软件包的url,在[requires]中我们定义了python版本,最后在[packages]中声明了我们需要的依赖项。我们可以将依赖项绑定到某个版本,或者使用“*”符号来获取最新版本。
要创建虚拟环境并激活它,我们需要在终端中运行两个命令:
pipenv --three install
pipenv shell
一旦完成这一步,你应该看到你在一个新的venv中,让项目的名字出现在命令行的终端中(默认情况下,env采用项目的名称):
(pyspark-project-template) host:project$
现在,您可以使用两个命令进出。
停用env并返回标准环境:
deactivate
再次激活虚拟环境(您需要位于项目的根目录中):
source `pipenv --venv`/bin/activate
第2步:项目结构
该项目可以具有以下结构:
pyspark-project-template
src/
jobs/
pi/
__init__.py
resources/
args.json
word_count/
__init__.py
resources/
args.json
word_count.csv
main.py
test/
jobs/
pi/
test_pi.py
word_count/
test_word_count.py
排除一些init.py文件以简化操作,但您可以在本教程末尾的github上找到完整项目的链接。我们基本上有源代码和测试。每个作业都分成一个文件夹,每个作业都有一个资源文件夹,我们在其中添加该作业所需的额外文件和配置。
在本教程中,我使用了两个经典示例 - pi,生成最多小数的pi数和字数,以计算csv文件中的单词数。
第3步:使用spark-submit运行作业
我们先来看看main.py文件的样子:
if __name__ == '__main__':
parser = argparse.ArgumentParser(description='My pyspark job arguments')
parser.add_argument('--job', type=str, required=True, dest='job_name',
help='The name of the spark job you want to run')
parser.add_argument('--res-path', type=str, required=True, dest='res_path',
help='Path to the jobs resurces')
args = parser.parse_args()
spark = SparkSession\
.builder\
.appName(args.job_name)\
.getOrCreate()
job_module = importlib.import_module('jobs.%s' % args.job_name)
res = job_module.run(spark, get_config(args.res_path, args.job_name))
print('[JOB {job} RESULT]: {result}'.format(job=args.job_name, result=res))
当我们运行我们的工作时,我们需要两个命令行参数: - job,是我们想要运行的作业的名称(在例外pi或word_count中)和 - res-path,是作业的相对路径。我们需要第二个参数,因为spark需要知道我们资源的完整路径。在生产环境中,我们将代码部署在集群上,我们将资源转移到HDFS或S3,我们将使用该路径。
在进一步解释代码之前,我们需要提一下,我们必须压缩作业文件夹并将其传递给spark-submit语句。假设我们在项目的根目录中:
cd src/
zip -r ../jobs.zip jobs/
这将使代码在我们的应用程序中作为模块提供。基本上在第16行的main.py中,我们以编程方式导入作业模块。
我们的作业pi和word_count都有一个run函数,所以我们只需要运行这个函数来启动这个作业(main.py中的第17行)。我们还在那里传递了工作的配置。
让我们看一下word_count作业,进一步了解这个例子:
from operator import add
def get_keyval(row):
words = filter(lambda r: r is not None, row)
return [[w.strip().lower(), 1] for w in words]
def run(spark, config):
df = spark.read.csv(config['relative_path'] + config['words_file_path'])
mapped_rdd = df.rdd.flatMap(lambda row: get_keyval(row))
counts_rdd = mapped_rdd.reduceByKey(add)
return counts_rdd.collect()
此代码在word_count文件夹的init.py文件中定义。我们在这里可以看到,我们使用两个配置参数来读取资源文件夹中的csv文件:相对路径和csv文件的位置。其余的代码只计算单词,所以我们不会在这里详细介绍。值得一提的是,每个作业在resources文件夹中都有一个args.json文件。这里我们实际定义了传递给作业的配置。这是word_count作业的配置文件:
{
"words_file_path": "/word_count/resources/word_count.csv"
}
所以我们现在有了所有细节来运行我们的spark-submit命令:
spark-submit --py-files jobs.zip src/main.py --job word_count --res-path /your/path/pyspark-project-template/src/jobs
要运行另一个作业pi,我们只需要更改- job标志的参数 。
第4步:编写单元测试,并使用覆盖率运行它们
要为pyspark应用程序编写测试,我们使用pytest-spark,一个非常易于使用的模块。
该WORD_COUNT工作单元测试:
from src.jobs.word_count import get_keyval, run
def test_get_keyval():
words=['this', 'are', 'words', 'words']
expected_results=[['this', 1], ['are', 1], ['words', 1], ['words', 1]]
assert expected_results == get_keyval(words)
def test_word_count_run(spark_session):
expected_results = [('one', 1), ('two', 1), ('three', 2), ('four', 2), ('test', 1)]
conf = {
'relative_path': '/your/path/pyspark-project-template/src/jobs',
'words_file_path': '/word_count/resources/word_count.csv'
}
assert expected_results == run(spark_session, conf)
我们需要从src模块导入我们想要测试的函数。这里更有趣的部分是我们如何进行test_word_count_run。我们可以看到没有初始化的spark会话,我们只是在测试中将其作为参数接收。这要归功于pytest-spark模块,因此我们可以专注于编写测试,而不是编写样板代码。
接下来让我们讨论一下代码覆盖率。我们怎么知道我们是否编写了足够的单元测试?很简单,我们运行测试覆盖工具,告诉我们尚未测试的代码。对于python,我们可以使用pytest-cov模块。要使用代码覆盖率运行所有测试,我们必须运行:
pytest --cov=src test/jobs/
where - cov flag告诉pytest在哪里检查覆盖范围。
测试覆盖率结果:
---------- coverage: platform darwin, python 3.7.2-final-0 -----------
Name Stmts Miss Cover
-----------------------------------------------------
src/__init__.py 0 0 100%
src/jobs/__init__.py 0 0 100%
src/jobs/pi/__init__.py 11 0 100%
src/jobs/word_count/__init__.py 9 0 100%
-----------------------------------------------------
TOTAL 20 0 100%
我们的测试覆盖率是100%,但是等一下,缺少一个文件!为什么main.py没有在那里列出?
如果我们认为我们有不需要测试的python代码,我们可以将它从报告中排除。为此,我们需要在项目的根目录中创建一个 .coveragerc文件。对于此示例,它看起来像这样:
[run]
omit = src/main.py
第5步:运行静态代码分析
很好,我们有一些代码,我们可以运行它,我们有良好的覆盖率的单元测试。我们做对了吗?还没!我们还需要确保按照python最佳实践编写易于阅读的代码。为此,我们必须使用名为flake8的python模块检查我们的代码。
要运行它:
flake8 ./src
它将分析src文件夹。如果我们有干净的代码,我们就不应该收到任何警告。但不,我们有一些问题:
flake8 ./src
./src/jobs/pi/__init__.py:13:1: E302 expected 2 blank lines, found 1
./src/jobs/pi/__init__.py:15:73: E231 missing whitespace after ','
./src/jobs/pi/__init__.py:15:80: E501 line too long (113 > 79 characters)
我们来看看代码:
from random import random
from operator import add
NUMBER_OF_STEPS_FACTOR = 100000
def f(_):
x = random() * 2 - 1
y = random() * 2 - 1
return 1 if x ** 2 + y ** 2 <= 1 else 0
def run(spark, config):
number_of_steps = config['partitions'] * NUMBER_OF_STEPS_FACTOR
count = spark.sparkContext.parallelize(range(1, number_of_steps + 1),config['partitions']).map(f).reduce(add)
return 4.0 * count / number_of_steps
我们可以看到在第13行我们有一个E302警告。这意味着我们需要在两种方法之间增加一条线。然后是第15行的E231和E501。这一行的第一个警告告诉我们,我们需要在和之间留出一个额外的空间,第二个警告通知我们线路太长,而且很难读(我们可以’甚至在要点中完整地看到它!)。**range(1, number_of_steps +1),**
**config[**
解决所有警告后,代码看起来更容易阅读:
from random import random
from operator import add
NUMBER_OF_STEPS_FACTOR = 100000
def f(_):
x = random() * 2 - 1
y = random() * 2 - 1
return 1 if x ** 2 + y ** 2 <= 1 else 0
def run(spark, config):
number_of_steps = config['partitions'] * NUMBER_OF_STEPS_FACTOR
count = spark.sparkContext\
.parallelize(range(1, number_of_steps + 1),
config['partitions']).map(f).reduce(add)
return 4.0 * count / number_of_steps
第6步:将所有内容与Makefile放在一起
因为我们在终端中运行了一堆命令,所以在最后一步中我们将研究如何简化和自动执行此任务。
我们可以在项目的根目录中创建一个Makefile,如下所示:
.DEFAULT_GOAL := run
init:
pipenv --three install
pipenv shell
analyze:
flake8 ./src
run_tests:
pytest --cov=src test/jobs/
run:
find . -name '__pycache__' | xargs rm -rf
rm -f jobs.zip
cd src/ && zip -r ../jobs.zip jobs/
spark-submit --py-files jobs.zip src/main.py --job $(JOB_NAME) --res-path $(CONF_PATH)
如果我们想要使用coverage运行测试,我们只需输入:
make run_tests
如果我们想要运行pi工作:
make run JOB_NAME=pi CONF_PATH=/your/path/pyspark-project-template/src/jobs
这就是所有人!希望这个对你有帮助。
一如既往,代码存储在github上。