我的编程空间,编程开发者的网络收藏夹
学习永远不晚

Python爬虫的并发编程如何应用

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

Python爬虫的并发编程如何应用

这篇文章主要讲解了“Python爬虫的并发编程如何应用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Python爬虫的并发编程如何应用”吧!

什么是并发编程

并发编程是指在一个时间段内,能够执行多个操作的程序设计,通常表现为程序中有多个任务同时启动,可以运行并且相互之间不会产生影响。并发编程的好处是可以提高程序的性能和响应能力。

并发编程在爬虫中的应用

爬虫程序是典型的 I/O 密集型任务,对于 I/O 密集型任务来说,多线程和异步 I/O 都是很好的选择,因为当程序的某个部分因 I/O 操作阻塞时,程序的其他部分仍然可以运转,这样我们不用在等待和阻塞中浪费大量的时间。

单线程版本

我们首先来看单线程版本的爬虫程序。这个爬虫程序使用了requests库获取 JSON 数据,并通过open函数将图片保存到本地。

"""example04.py - 单线程版本爬虫"""import osimport requestsdef download_picture(url):    filename = url[url.rfind('/') + 1:]    resp = requests.get(url)    if resp.status_code == 200:        with open(f'images/beauty/{filename}', 'wb') as file:            file.write(resp.content)def main():    if not os.path.exists('images/beauty'):        os.makedirs('images/beauty')    for page in range(3):        resp = requests.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}')        if resp.status_code == 200:            pic_dict_list = resp.json()['list']            for pic_dict in pic_dict_list:                download_picture(pic_dict['qhimg_url'])if __name__ == '__main__':    main()

在 macOS 或 Linux 系统上,我们可以使用time命令来了解上面代码的执行时间以及 CPU 的利用率,如下所示。

time python3 example04.py

下面是单线程爬虫代码在我的电脑上执行的结果。

python3 example04.py  2.36s user 0.39s system 12% cpu 21.578 total

这里我们只需要关注代码的总耗时为21.578秒,CPU 利用率为12%

多线程版本

我们使用之前讲到过的线程池技术,将上面的代码修改为多线程版本。

"""example05.py - 多线程版本爬虫"""import osfrom concurrent.futures import ThreadPoolExecutorimport requestsdef download_picture(url):    filename = url[url.rfind('/') + 1:]    resp = requests.get(url)    if resp.status_code == 200:        with open(f'images/beauty/{filename}', 'wb') as file:            file.write(resp.content)def main():    if not os.path.exists('images/beauty'):        os.makedirs('images/beauty')    with ThreadPoolExecutor(max_workers=16) as pool:        for page in range(3):            resp = requests.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}')            if resp.status_code == 200:                pic_dict_list = resp.json()['list']                for pic_dict in pic_dict_list:                    pool.submit(download_picture, pic_dict['qhimg_url'])if __name__ == '__main__':    main()

执行如下所示的命令。

time python3 example05.py

代码的执行结果如下所示:

python3 example05.py  2.65s user 0.40s system 95% cpu 3.193 total

异步I/O版本

我们使用aiohttp将上面的代码修改为异步 I/O 的版本。为了以异步 I/O 的方式实现网络资源的获取和写文件操作,我们首先得安装三方库aiohttpaiofile

pip install aiohttp aiofile

下面是异步 I/O 版本的爬虫代码。

"""example06.py - 异步I/O版本爬虫"""import asyncioimport jsonimport osimport aiofileimport aiohttpasync def download_picture(session, url):    filename = url[url.rfind('/') + 1:]    async with session.get(url, ssl=False) as resp:        if resp.status == 200:            data = await resp.read()            async with aiofile.async_open(f'images/beauty/{filename}', 'wb') as file:                await file.write(data)async def main():    if not os.path.exists('images/beauty'):        os.makedirs('images/beauty')    async with aiohttp.ClientSession() as session:        tasks = []        for page in range(3):            resp = await session.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}')            if resp.status == 200:                pic_dict_list = (await resp.json())['list']                for pic_dict in pic_dict_list:                    tasks.append(asyncio.ensure_future(download_picture(session, pic_dict['qhimg_url'])))        await asyncio.gather(*tasks)if __name__ == '__main__':    loop = asyncio.get_event_loop()    loop.run_until_complete(main())

执行如下所示的命令。

time python3 example06.py

代码的执行结果如下所示:

python3 example06.py  0.92s user 0.27s system 290% cpu 0.420 total

相对于单线程版本的爬虫程序,多线程版本和异步 I/O 版本的爬虫程序在执行上的时间上有了显著的提升,而且异步 I/O 版本的爬虫程序表现最佳。

感谢各位的阅读,以上就是“Python爬虫的并发编程如何应用”的内容了,经过本文的学习后,相信大家对Python爬虫的并发编程如何应用这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是编程网,小编将为大家推送更多相关知识点的文章,欢迎关注!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

Python爬虫的并发编程如何应用

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

Python爬虫的并发编程如何应用

这篇文章主要讲解了“Python爬虫的并发编程如何应用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Python爬虫的并发编程如何应用”吧!什么是并发编程并发编程是指在一个时间段内,能够执行
2023-07-06

Python爬虫中的并发编程详解

Python爬虫中的并发编程是一种优化爬取速度、解决阻塞问题、优化资源利用的方式。常用的并发编程模块包括多线程、多进程、协程等,通过并发处理多个任务,可以提高爬取效率,节省爬虫资源利用成本。同时,还需注意线程安全、共享资源问题等并发编程中的常见陷阱
2023-05-18

如何分析Python多线程在爬虫中的应用

本篇文章为大家展示了如何分析Python多线程在爬虫中的应用,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。作为测试工程师经常需要解决测试数据来源的问题,解决思路无非是三种:1、直接从生产环境拷贝真实
2023-06-04

python网络爬虫之如何伪装逃过反爬虫程序的方法

有的时候,我们本来写得好好的爬虫代码,之前还运行得Ok, 一下子突然报错了。 报错信息如下: Http 800 Internal internet error 这是因为你的对象网站设置了反爬虫程序,如果用现有的爬虫代码,会被拒绝。 之前正常
2022-06-04

如何在Python中编写并发程序

GIL在Python中,由于历史原因(GIL),使得Python中多线程的效果非常不理想.GIL使得任何时刻Python只能利用一个CPU核,并且它的调度算法简单粗暴:多线程中,让每个线程运行一段时间t,然后强行挂起该线程,继而去运行其他线
2022-06-04

利用 Python 并发编程实现高性能应用程序

Python 并发编程提供了强大的机制来创建高效且可伸缩的应用程序。本文将探讨如何利用 Python 的并发特性,包括多进程、多线程和协程,来提升应用程序的性能。
利用 Python 并发编程实现高性能应用程序
2024-02-18

Python爬虫如何使用浏览器的cookies browsercookie

这篇文章给大家介绍Python爬虫如何使用浏览器的cookies browsercookie,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。很多用Python的人可能都写过网络爬虫,自动化获取网络数据确实是一件令人愉悦的
2023-06-02

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录