• 需求:爬取国家药品监督管理总局中基于中华人民共和国化妆品生产许可证相关数据
      http://125.35.6.84:81/xk/
      - 动态加载数据
      - 首页中对应的企业信息数据是通过ajax动态请求到的。
      http://125.35.6.84:81/xk/itownet/portal/dzpz.jsp?id=e6c1aa332b274282b04659a6ea30430a
      http://125.35.6.84:81/xk/itownet/portal/dzpz.jsp?id=f63f61fe04684c46a016a45eac8754fe
      - 通过对详情页url的观察发现:
      - url的域名都是一样的,只有携带的参数(id)不一样
      - id值可以从首页对应的ajax请求到的json串中获取
      - 域名和id值拼接处一个完整的企业对应的详情页的url
      - 详情页的企业详情数据也是动态加载出来的
      - http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsById
      - http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsById
      - 观察后发现:
      - 所有的post请求的url都是一样的,只有参数id值是不同。
      - 如果我们可以批量获取多家企业的id后,就可以将id和url形成一个完整的详情页对应详情数据的ajax请求的url

      1. if __name__ == "__main__":
      2. headers = {
      3. 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36'
      4. }
      5. id_list = [] # 存储企业的id
      6. all_data_list = [] # 存储所有的企业详情数据
      7. # 批量获取不同企业的id值
      8. url = 'http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsList'
      9. # 参数的封装
      10. for page in range(1, 6):
      11. page = str(page)
      12. data = {
      13. 'on': 'true',
      14. 'page': page,
      15. 'pageSize': '15',
      16. 'productName': '',
      17. 'conditionType': '1',
      18. 'applyname': '',
      19. 'applysn': '',
      20. }
      21. json_ids = requests.post(url=url, headers=headers, data=data).json()
      22. for dic in json_ids['list']:
      23. id_list.append(dic['ID'])
      24. # 获取企业详情数据
      25. post_url = 'http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsById'
      26. for id in id_list:
      27. data = {
      28. 'id': id
      29. }
      30. detail_json = requests.post(url=post_url, headers=headers, data=data).json()
      31. # print(detail_json,'-------------ending-----------')
      32. all_data_list.append(detail_json)
      33. # 持久化存储all_data_list
      34. fp = open('./allData.json', 'w', encoding='utf-8')
      35. json.dump(all_data_list, fp=fp, ensure_ascii=False)
      36. print('over!!!')