我的编程空间,编程开发者的网络收藏夹
学习永远不晚

python怎么利用多线程+队列技术爬取中介网互联网网站排行榜

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

python怎么利用多线程+队列技术爬取中介网互联网网站排行榜

本篇内容介绍了“python怎么利用多线程+队列技术爬取中介网互联网网站排行榜”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

目标站点分析

本次要抓取的目标站点为:中介网,这个网站提供了网站排行榜、互联网网站排行榜、中文网站排行榜等数据。

网站展示的样本数据量是 :58341。

采集页面地址为 https://www.zhongjie.com/top/rank_all_1.html

UI如下所示: 

python怎么利用多线程+队列技术爬取中介网互联网网站排行榜

 由于页面存在一个【尾页】超链接,所以直接通过该超链接获取累计页面即可。

其余页面遵循简单分页规则:

https://www.zhongjie.com/top/rank_all_1.htmlhttps://www.zhongjie.com/top/rank_all_2.html

基于此,本次Python爬虫的解决方案如下,页面请求使用 requests 库,页面解析使用 lxml,多线程使用 threading 模块,队列依旧采用 queue 模块。

编码时间

在正式编码前,先通过一张图将逻辑进行梳理。

本爬虫编写步骤文字描述如下:

  • 预先请求第一页,解析出总页码;

  • 通过生产者不断获取域名详情页地址,添加到队列中;

  • 消费者函数从队列获取详情页地址,解析目标数据。

python怎么利用多线程+队列技术爬取中介网互联网网站排行榜

总页码的生成代码非常简单

def get_total_page():# get_headers() 函数,可参考开源代码分享数据    res = requests.get(        'https://www.zhongjie.com/top/rank_all_1.html', headers=get_headers(), timeout=5)    element = etree.HTML(res.text)    last_page = element.xpath("//a[@class='weiye']/@href")[0]    pattern = re.compile('(\d+)')    page = pattern.search(last_page)    return int(page.group(1))

总页码生成完毕,就可以进行多线程相关编码,本案例未编写存储部分代码,留给你自行完成啦,

完整代码如下所示:

from queue import Queueimport timeimport threadingimport requestsfrom lxml import etreeimport randomimport redef get_headers():    uas = [        "Mozilla/5.0 (compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)",        "Mozilla/5.0 (compatible; Baiduspider-render/2.0; +http://www.baidu.com/search/spider.html)"    ]    ua = random.choice(uas)    headers = {        "user-agent": ua    }    return headersdef get_total_page():    res = requests.get(        'https://www.zhongjie.com/top/rank_all_1.html', headers=get_headers(), timeout=5)    element = etree.HTML(res.text)    last_page = element.xpath("//a[@class='weiye']/@href")[0]    pattern = re.compile('(\d+)')    page = pattern.search(last_page)    return int(page.group(1))# 生产者def producer():    while True:        # 取一个分类ID        url = urls.get()        urls.task_done()        if url is None:            break        res = requests.get(url=url, headers=get_headers(), timeout=5)        text = res.text        element = etree.HTML(text)        links = element.xpath('//a[@class="copyright_title"]/@href')        for i in links:            wait_list_urls.put("https://www.zhongjie.com" + i)# 消费者def consumer():    while True:        url = wait_list_urls.get()        wait_list_urls.task_done()        if url is None:            break        res = requests.get(url=url, headers=get_headers(), timeout=5)        text = res.text        element = etree.HTML(text)# 数据提取,更多数据提取,可自行编写 xpath         title = element.xpath('//div[@class="info-head-l"]/h2/text()')        link = element.xpath('//div[@class="info-head-l"]/p[1]/a/text()')        description = element.xpath('//div[@class="info-head-l"]/p[2]/text()')        print(title, link, description)if __name__ == "__main__":    # 初始化一个队列    urls = Queue(maxsize=0)    last_page = get_total_page()    for p in range(1, last_page + 1):        urls.put(f"https://www.zhongjie.com/top/rank_all_{p}.html")    wait_list_urls = Queue(maxsize=0)    # 开启2个生产者线程    for p_in in range(1, 3):        p = threading.Thread(target=producer)        p.start()    # 开启2个消费者线程    for p_in in range(1, 2):        p = threading.Thread(target=consumer)        p.start()

“python怎么利用多线程+队列技术爬取中介网互联网网站排行榜”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注编程网网站,小编将为大家输出更多高质量的实用文章!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

python怎么利用多线程+队列技术爬取中介网互联网网站排行榜

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

python怎么利用多线程+队列技术爬取中介网互联网网站排行榜

本篇内容介绍了“python怎么利用多线程+队列技术爬取中介网互联网网站排行榜”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!目标站点分析本次
2023-06-30

怎么在python中利用多线程爬取网站壁纸

本篇文章给大家分享的是有关怎么在python中利用多线程爬取网站壁纸,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。Python主要用来做什么Python主要应用于:1、Web开
2023-06-06

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录