Scrapyd的安装及使用

1. 安装scrapyd

  1. pip install scrapyd

2. 安装setuptools

为什么要安装这个工具?

因为部署的应用需要打包成*.egg才能运行
官网地址:https://pypi.python.org/pypi/setuptools下载

  1. pip install setuptools-38.5.2-py2.py3-none-any

3. 部署工程

3.1 创建项目

工程下会有一个叫scrapy.cfg的文件,文件的内容如下:

  1. [settings]
  2. default = my_spider.settings
  3. [deploy:demo] # demo是指这个deploy的名称,自己命名,可以多个。(后面有用到)
  4. #url = http://localhost:6800/
  5. project = my_spider # 工程的名称
3.2 启动scrapyd

在本工程下命令行下启动scrapyd

注意: 如果不先启动scrapyd就会无法部署工程

3.3 部署项目

通过scrapyd-deploy部署,要求装一个scrapyd-client

  1. pip install scrapyd-client
3.4 配置scrapyd-deploy

在 %python_home%\Scripts下增加一个scrapyd-deploy.bat文件,内容如下:

  1. @echo off
  2. "%python_home%\python.exe" "%python_home%\Scripts\scrapyd-deploy" %1 %2 %3 %4 %5 %6 %7 %8 %9
3.5 使用scrapyd-deploy
  1. scrapy-deploy demo #demo就是scrapy.cfg中的名字
4 运行Spider
  1. curl http://localhost:6800/schedule.json -d project=项目名 -d spider=爬虫名
5 查看效果

在浏览器输入localhost:6800