一、爬虫基本架构
url管理模块
实现方式
通过url下载
from urllib.request import urlopen
test_url = "https://wztlink1013.github.io"
response = urlopen(test_url)
print (response.getcode()) # 200 表示访问成功
print (response.read())
通过Request访问
- 通过cookie访问
网页解析模块
从已经下载的网页中爬取数据,实现方式有:
- 正则表达式
- html.parser
- BeautifulSoup:结构化解析网页
- lxml
- 结构化解析
- DOM(Document Object Model),树形结构,就是html的基本骨架
二、BeautifulSoup解析网页
三、Scrapy
Scrapy基础
下载方法以及问题,在anaconda博客中
四、Scrapy使用
使用SOP
- 创建工程
- 键入
cmd
cd
到需要下载的目录下 - 输入
scrapy startproject tutorial
(最后是项目名字) - !此后所有有关命令的操作,均在下一级文件夹下,也有是有cfg文件后缀的文件夹下
- 键入
- 定义Item,构造爬取的对象
- 编写spider,爬虫主体
scrapy genspider amazon_spider https://……
- pipelines,默认return item
- 编写其他配置,其中pipeline用于处理爬取后所得到的结果
- 执行爬虫
scrapy crawl amazon_spider
常用命令
参考
- 查看其官方文档
- 简书