我的编程空间,编程开发者的网络收藏夹
学习永远不晚

03_多协程爬取糗事百科热图

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

03_多协程爬取糗事百科热图

今天在使用正则表达式时未能解决实际问题,于是使用bs4库完成匹配,通过反复测试,最终解决了实际的问题,加深了对bs4.BeautifulSoup模块的理解。

爬取流程

前奏:

分析糗事百科热图板块的网址,因为要进行翻页爬取内容,所以分析不同页码的网址信息是必要的

具体步骤:

1,获取网页内容(urllib.request)# 糗事百科有发爬虫技术,所以要添加headers,伪装程浏览器

2,解析网页内容,获取图片链接(from bs4 import BeautifulSoup)

3,通过图片链接下载图片(urllib.request),并存储到本地

备注:

具体的爬取说明在代码都有详细的解释

  1 import urllib.request
  2 import requests
  3 from bs4 import BeautifulSoup
  4 # import re
  5 import gevent
  6 from gevent import monkey
  7 import bs4
  8 
  9 monkey.patch_all()
 10 
 11 
 12 def get_html_text(url, raw_html_text, depth):
 13 
 14     # 爬取网页数据
 15 
 16     # 糗事百科有反爬虫机制,需要设置请求头伪装成浏览器
 17     hd = ('User-Agent','Mozilla/5.0(Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Ch    rome/49.0.2623.22 Safari/537.36 SE 2.X MetaSr 1.0')
 18 
 19     # 创建opener对象
 20     opener = urllib.request.build_opener()
 21     opener.addheaders = [hd]
 22 
 23     # 将opener对象设置为全局
 24     urllib.request.install_opener(opener)
 25 
 26     # 翻页爬取html_text
 27     for i in range(depth):
 28         # 根据对网址的分析,构造符合翻页时的网址
 29         url_real = url + str(i+1)
 30         try:
 31             html_data = urllib.request.urlopen(url_real).read().decode('utf-8', 'ignore')
 32             raw_html_text.append(html_data)
 33             # 测试代码
 34             # print(len(html_data))
 35         except Exception as result:
 36             print('错误类型:', result)
 37     
 38     print('提取网页信息完成...')
 39     return raw_html_text
 40     # 测试代码         
 41     # print(len(raw_html_text))
 42 
 43 
 44 def parser_html_text(raw_html_text, done_img):
 45 
 46     # 对爬取的网页数据进行遍历
 47 
 48     for html_text in raw_html_text:
 49         # 使用BeautifulSoup对网页进行解析
 50         soup = BeautifulSoup(html_text, 'html.parser')
 51         # 使用soup.find_all('div','thumb') 查找出每个网页中所有标签是div,属性值是thumb的标签
 52         # 通过对网页源代码的分析,图片信息都存储在该标签下的孙子标签img中的属性class="lazy" data-src中
 53         # 遍历每个div标签
 54         for tag in soup.find_all('div', 'thumb'):
 55             # 判断 tag 是否是bs4.element.Tag属性,因为在标签div下,并不是全部是标签
 56             if isinstance(tag, bs4.element.Tag):
 57                 # 遍历每个div标签下的所有孙子标签
 58                 for img in tag.descendants:
 59                     # 判断标签的名字是不是‘img’,如果是,取出标签中属性class="lazy" data-src的属性值。
 60                     if img.name == 'img':
 61                         link = img.get('class="lazy" data-src')
 62                         done_img.append(link)
 63     #测试代码
 64     #print(done_img)
 65     print('网页解析完成...')
 66     return done_img
 67 
 68 def save_crawler_data(done_img):
 69     # 将目标文本存储到本地‘./’表示当前目录
 70     path = './img/'
 71     # enumerate(list) 返回索引及索引对应的列表内的元素
 72     for i,j in enumerate(done_img):
 73         # 分析爬取的链接,前面缺少‘https:’,使用字符串拼接
 74         j ='https:' + j
 75         # 通过urllib.request.urlopen()下载图片
 76         try:
 77             img_data = urllib.request.urlopen(j).read()
 78             path_real = path + str(i+1)
 79             with open(path_real, 'wb') as f:
 80                 f.write(img_data)
 81         except:
 82             continue
 83     print('图片存储完成')
 84 
 85 
 86 def main():
 87     url = 'https://www.qiushibaike.com/imgrank/page/'
 88     depth = 20
 89     raw_html_text = list()
 90     done_img = list()
 91     Raw_html_text = get_html_text(url, raw_html_text, depth)
 92     Done_img = parser_html_text(Raw_html_text, done_img)
 93     gevent.joinall([
 94         gevent.spawn(get_html_text,url,raw_html_text,depth),
 95         gevent.spawn(parser_html_text,Raw_html_text,done_img),
 96         gevent.spawn(save_crawler_data,Done_img)
 97         ])
 98 
 99     save_crawler_data(done_img)
100 
101 
102 if __name__ == '__main__':
103     main()

 

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

03_多协程爬取糗事百科热图

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

03_多协程爬取糗事百科热图

今天在使用正则表达式时未能解决实际问题,于是使用bs4库完成匹配,通过反复测试,最终解决了实际的问题,加深了对bs4.BeautifulSoup模块的理解。爬取流程前奏:分析糗事百科热图板块的网址,因为要进行翻页爬取内容,所以分析不同页码的
2023-01-30

使用Python爬取糗事百科热门文章

默认情况下取糗事百科热门文章只有35页,每页20条,根据下面代码可以一次性输出所有的文章,也可以选择一次输出一条信息,回车继续。不支持图片内容的显示,显示内容包括作者,热度(觉得好笑的人越多,热度越高),内容。从热度最高开始显示到最低。实现
2023-01-31

Python项目实战:爬取糗事百科最热门的内涵搞笑段子

前言相信大家都很喜欢非常喜欢看那种神奇的段子,和下面神评论,哈哈,简直就是笑死人,不偿命,今天就为大家介绍一个爬取糗事百科最热门的内涵段子的案例,让你在敲代码过程,有点烦心的时候,就可以看看最新的搞笑内涵段子了,是不是超棒的呢导入基本库
2023-06-02

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录