新一代的网络请求库 Httpx

2021-11-26 22:12

HTTPX 是最近 GitHub看的到一个比较火的一个项目,根据官网的描述,总结有如下特点:

  • 和使用 requests 一样方便,requests 有的它都有
  • 加入 HTTP/1.1 和 HTTP/2 的支持。
  • 能够直接向 WSGI 应用程序或 ASGI 应用程序发出请求。
  • 到处都有严格的超时设置
  • 全类型注释
  • 100% 的测试覆盖率

比较不错的一个特点是全类型注解,这让我想起了一个叫 Starlette 的库,它也是全类型注解的,类型注解主要方便IDE的智能提示,Java 等静态类型的语言都有这个功能,Python 是近期新加的。其他的后面再说吧,我们还是看例子吧。

安装

httpx 的安装很简单,像其他的 Python 库一样,直接 pip 就完事了

  1. python3 -m pip install httpx

如果需要对 HTTP/2 支持,我们需要额外安装一个库

  1. python3 -m pip install httpx[http2]

使用示例

  1. import httpx
  2. r = httpx.get('https://www.example.org/')
  3. r.text
  4. r.content
  5. r.json()
  6. r.status_code

基本的用法直接导包然后 get 就行了。其他的和 requests 的使用类似

  1. r = httpx.put('https://httpbin.org/put', data={'key': 'value'})
  2. r = httpx.delete('https://httpbin.org/delete')
  3. r = httpx.head('https://httpbin.org/get')
  4. r = httpx.options('https://httpbin.org/get')

Ok,这是基本用法。

如果需要做一个爬虫项目,里面涉及到 Cookie 的传递这时候再这样就不行了,
httpx 有个 requests 的 Session 类型的使用方法.

  1. import httpx
  2. client = httpx.Client() #类似requests.Session()
  3. try:
  4. do somting
  5. finally:
  6. client.close() #关闭连接池

更优雅的方法就是使用 with 上下文管理器的形式

  1. with httpx.Client() as client:
  2. headers = {'X-Custom': 'value'}
  3. r = client.get('https://example.com', headers=headers)

这里有个地方需要强调下 Client 和 get 里面都可以添加 headers,
最后这两个地方的 headers 可以合并到请求里,官方的例子

  1. >>> headers = {'X-Auth': 'from-client'}
  2. >>> params = {'client_id': 'client1'}
  3. >>> with httpx.Client(headers=headers, params=params) as client:
  4. ... headers = {'X-Custom': 'from-request'}
  5. ... params = {'request_id': 'request1'}
  6. ... r = client.get('https://example.com', headers=headers, params=params)
  7. ...
  8. >>> r.request.url
  9. URL('https://example.com?client_id=client1&request_id=request1')
  10. >>> r.request.headers['X-Auth']
  11. 'from-client'
  12. >>> r.request.headers['X-Custom']
  13. 'from-request'

接下来说下大家比较关心的一点代理的使用,需要注意的是 httpx 的代理只能在 httpx.Client 创建 Client 的实例的时候使用,client.get 的时候没这个参数。
有意思的是它这个代理可以指定规则,限制哪些请求使用代理哪些不使用,来个官方的例子

允许所有请求都走代理
  1. proxies = {
  2. "all://": "http://localhost:8030",
  3. }

如果字典的值为 None 则表示不使用代理。

不同的协议走不用的代理
  1. proxies = {
  2. "http://": "http://localhost:8030",
  3. "https://": "http://localhost:8031",
  4. }

http 走 8030 的代理,https 走 8031 的代理,这里要注意和用 requests 使用代理的区别 requests 是下面这样用的

  1. proxies = {
  2. "http": "http://localhost:8030",
  3. "https": "http://localhost:8030",
  4. }

综合使用

你还可以配置多个规则像下面这

  1. proxies = {
  2. # Route all traffic through a proxy by default...
  3. "all://": "http://localhost:8030",
  4. # But don't use proxies for HTTPS requests to "domain.io"...
  5. "https://domain.io": None,
  6. # And use another proxy for requests to "example.com" and its subdomains...
  7. "all://*example.com": "http://localhost:8031",
  8. # And yet another proxy if HTTP is used,
  9. # and the "internal" subdomain on port 5550 is requested...
  10. "http://internal.example.com:5550": "http://localhost:8032",
  11. }

代理就这些,下面看看它的链接池的问题
你可以使用 Client 的关键字参数 limits 来控制连接池的大小。它需要以下实例httpx.Limits 来定义:

  • max_keepalive,允许的保持活动连接数或 None 始终允许。(预设10)
  • max_connections,允许的最大连接数或 None 无限制。(默认为100)
  1. limits = httpx.Limits(max_keepalive_connections=5, max_connections=10)
  2. client = httpx.Client(limits=limits)

如果默认链接数不够用的就自己重新设置吧。(我感觉是不够

我这边只关注了爬虫可能用到的部分,其他的大家可以看看官网。比如怎么搭配flask使用等。

好了关于httpx的同步请求的内容大概就这些要提的。如果只讲到这里,你肯定会说,”就这,用 requests 不香么?”,emmm,如果这么想你就错了,要知道它不仅支持同步还支持异步的新一代的网络请求库 Httpx - 图1,使用起来比 aiohttp 简单多了,这才是我推荐的目的。

httpx 之异步请求

要知道官网可是单独把它拎出一节讲的,可以看出里面应该有点东西。
废话少说,开整。

我们先看在 aiohttp 中是如何创建并发送请求的

  1. import aiohttp
  2. import asyncio
  3. async def main():
  4. async with aiohttp.ClientSession() as client:
  5. async with client.get('http://httpbin.org/get') as resp:
  6. assert resp.status == 200
  7. html= await resp.text()
  8. print(html)

我们需要使用两个 async with 来完成一个请求,然后我们看看 httpx 怎么实现的呢

  1. async with httpx.AsyncClient() as client:
  2. resp = await client.get('http://httpbin.org/get')
  3. assert resp.status_code == 200
  4. html = resp.text

感觉总体上比较 aiohttp 写起来舒服多了,少写很多异步代码。
之前使用 aiohttp 中的 resp.status 来获取状态码的时候写了status_code,应该是使用 requests 习惯了吧,这下好了使用 httpx 不用担心这个写错的问题了。

后记

最近,我刚把我之前的那个 discogs_aio_spider 的项目给改了,之前用的aiohttp,我现在改成 httpx,对 httpx 感兴趣的朋友,可以到上面研究下我这个项目,有问题欢迎提出。👏

项目名:discogs_aio_spider

项目地址:https://github.com/cxapython/discogs_aio_spider

使用到的模块:asyncio、httpx、motor、aio-pika、aioredis

  1. 往期热门文章:

1、常用正则表达式速查手册,Python文本处理必备

2为什么腾讯/阿里不去开发被卡脖子的工业软件?

3、分析一波,中国月收入过万的人真的很多吗?

点击关注【python之禅】,提升Python技能

👇👇👇

新一代的网络请求库 Httpx - 图2

好文章需要您的点赞加在看~

↓↓↓