我的编程空间,编程开发者的网络收藏夹
学习永远不晚

python爬虫实战之制作属于自己的一个IP代理模块

短信预约 信息系统项目管理师 报名、考试、查分时间动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

python爬虫实战之制作属于自己的一个IP代理模块

目录
  • 一、使用PyChram的正则
  • 二、制作一个随机User-Agent模块
  • 三、最终实践
    • 3.1 爬取快代理上的ip
    • 3.2 验证爬取到的ip是否可用
    • 3.3 实战:利用爬取到的ip访问CSDN博客网址1000次
  • 四、总结

    一、使用PyChram的正则

    首先,小编讲的不是爬取ip,而是讲了解PyCharm的正则,这里讲的正则不是Python的re模块哈!
    而是PyCharm的正则功能,我们在PyChram的界面上按上Ctrl+R,可以发现,这里出现两行输入框

    在这里插入图片描述

    现在如果小编想把如下数据转换成一个字典存储

    在这里插入图片描述

    读者也许会一个一去改,但是小编只需在上述的那两个输入框内,输入一串字符串即可。

    在这里插入图片描述

    只需在第一个输入框中,输入(.*) : (.*)
    在第二个输入框中,输入"$1":"$2",,看看效果如何

    在这里插入图片描述

    之后再给两端分别一个花括号和取一个字典名称即可。

    二、制作一个随机User-Agent模块

    反爬措施中,有这样一条,就是服务器会检查请求的user-agent参数值,如果检查的结果为python,那么服务器就知道这是爬虫,为了避免被服务器发现这是爬虫,通常user-agent参数值会设置浏览器的值,但是爬取一个网址时,每次都需要查看网址network下面的内容,显得比较繁琐,为什么不自定义一个随机获取user-agent的值模块呢?这样既可以减少查看network带来的繁琐,同时还可以避免服务器发现这是同一个user-agent发起多次请求。
    说了这么多,那么具体怎样实现呢?

    在这里插入图片描述

    只需调用随机模块random的方法choice()即可,这个方法里面的参数类型时列表类型,具体参考代码如下:

    
    import random
    
    class useragent(object):
    
        def getUserAgent(self):
            useragents=[
                'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.212 Safari/537.36',
                'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1',
                'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0',
                'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 2.0.50727; SLCC2; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.3; .NET4.0C; Tablet PC 2.0; .NET4.0E)',
                'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)',
            ]
            return random.choice(useragents)
    

    这样我们就可以随机得到一个user-agent的值了。

    三、最终实践

    3.1 爬取快代理上的ip

    接下来,就是最终实践了,制作属于自己的IP代理模块。

    那么,从哪里获取IP呢?小编用的是快代理这个网址,网址链接为:https://www.kuaidaili.com/free/inha/1/。

    怎样提取IP呢?小编用的是xpath语法

    在这里插入图片描述

    参考代码如下:

    
    import requests
    from crawlers.userAgent import useragent  # 导入自己自定义的类,主要作用为随机取user-agent的值
    from lxml import etree
    
    url='https://www.kuaidaili.com/free/inha/1/'
    headers={'user-agent':useragent().getUserAgent()}
    rsp=requests.get(url=url,headers=headers)
    HTML=etree.HTML(rsp.text)
    infos=HTML.xpath("//table[@class='table table-bordered table-striped']/tbody/tr")
    for info in infos:
        print(info.xpath('./td[1]/text()'))   # ip
        print(info.xpath('./td[2]/text()'))   # ip对应的端口 列表类型
    

    怎样爬取多页呢?分析快代理那个网址,可以发现https://www.kuaidaili.com/free/inha/{页数}/ ,花括号里面就是页数,这个网址总页数为4038,这里小编只爬取5页,并且开始页数取(1,3000)之间的随机数,但是如果for循环这个过程,运行结果如下:

    在这里插入图片描述

    原来是请求过快的原因,只需在爬取1页之后,休眠几秒钟即可解决。

    3.2 验证爬取到的ip是否可用

    这里直接用百度这个网址作为测试网址,主要代码为:

    
    url='https://www.baidu.com'
    headers={'user-agent':useragent().getUserAgent()}
    proxies={}   # ip ,这里只是讲一下关键代码,没有给出具体IP
    rsp=requests.get(url=url,headers=headers,proxies=proxies,time=0.2)  # timeout为超时时间
    

    只需判断rsp的状态码为200,如果是,把它添加到一个指定的列表中。

    具体参考代码小编已经上传到Gitee上,链接为:ip代理模块

    当然读者可用把这个文件保存到python\Lib文件夹下面,这样就可用随时随地导入了。

    3.3 实战:利用爬取到的ip访问CSDN博客网址1000次

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    上述出现那个错误,小编上网搜索了一下原因,如下:

    在这里插入图片描述

    我想应该是第1种原因,ip被封,我这里没有设置超时时间,应该不会出现程序请求速度过快。

    四、总结

    上述那个ip代理模块还有很多的不足点,比如用它去访问一些网址时,不管运行多少次,输出的结果状态码不会时200,这也正常,毕竟免费的ip并不是每个都能用的。如果要说改进的话,就是多爬取几个不同ip代理网址,去重,这样的结果肯定会比上述的那个ip代理模块要好

    到此这篇关于python爬虫实战之制作属于自己的一个IP代理模块的文章就介绍到这了,更多相关Python IP代理模块内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!

    免责声明:

    ① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

    ② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

    python爬虫实战之制作属于自己的一个IP代理模块

    下载Word文档到电脑,方便收藏和打印~

    下载Word文档

    猜你喜欢

    python爬虫实战之制作属于自己的一个IP代理模块

    目录一、使用PyChram的正则二、制作一个随机User-Agent模块三、最终实践3.1 爬取快代理上的ip3.2 验证爬取到的ip是否可用3.3 实战:利用爬取到的ip访问CSDN博客网址1000次四、总结一、使用PyChram的正则
    2022-06-02

    编程热搜

    • Python 学习之路 - Python
      一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
      Python 学习之路 - Python
    • chatgpt的中文全称是什么
      chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
      chatgpt的中文全称是什么
    • C/C++中extern函数使用详解
    • C/C++可变参数的使用
      可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
      C/C++可变参数的使用
    • css样式文件该放在哪里
    • php中数组下标必须是连续的吗
    • Python 3 教程
      Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
      Python 3 教程
    • Python pip包管理
      一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
      Python pip包管理
    • ubuntu如何重新编译内核
    • 改善Java代码之慎用java动态编译

    目录