在爬取大量数据的过程中由于数据量很大所以需要调用到诸多线程或进程后才能快速帮助我们处理数据

    在Python中方法也很简单,需要先导入线程池与进程池的包

    1. from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor
    2. #线程池:一次性开辟一些线程,我们用户直接给线程池提交任务,线程任务的调度交给线程池来完成
    3. #创建一个任务
    4. def fn(name):
    5. for i in range(100):
    6. print(name, i)
    7. if __name__ == '__main__':
    8. #创建线程池
    9. with ThreadPoolExecutor(50) as t: #创建一个50的线程池
    10. for i in range(1000): #创建一个1000的任务
    11. t.submit(fn, name = f"线程{i}") #submit:提交 ;将创建的线程池提交到执行体并赋予名称
    12. print("over!!!")

    执行结果展示:

    1. D:\学习软件工具\pycharm\openstack-api\venv\Scripts\python.exe D:/学习软件工具/pycharm/openstack-api/venv/pachong/线程池与进程池.py
    2. 线程0线程1 0
    3. 线程1 0
    4. 线程0 1
    5. 线程11
    6. 线程0 2
    7. 线程0 3
    8. 线程0 4
    9. 线程0 25
    10. .................略