我的编程空间,编程开发者的网络收藏夹
学习永远不晚

python爬虫伪装技巧有哪些

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

python爬虫伪装技巧有哪些

本篇内容介绍了“python爬虫伪装技巧有哪些”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

1.浏览器伪装

因为网站服务器能够很轻易的识别出访问的来源浏览器,以requests请求为例,默认header头数据中没有浏览器信息,在与浏览器交互时简直就是“裸奔”,所以我们可以加入“User-Agent”信息伪装成真实浏览器,代码如下:

import requests  headers={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:88.0) Gecko/20100101 Firefox/88.0'}  #模拟成火狐浏览器 response = requests.get("http://www.baidu.com",headers=headers)  #模拟请求url

2.访问地址伪装

访问地址指的是headers头部中的reffer信息,那么它有什么作用呢?举个例子解释一下:

我在https://bj.meituan.com/里有一个https://waimai.meituan.com/链接,那么点击这个https://waimai.meituan.com/,它的header信息里就有:Referer=https://bj.meituan.com/

那么可以利用这个来防止盗链,比如我只允许我自己的网站访问我自己的图片服务器

我们可以加入“reffer”信息伪装访问地址,代码如下:

import requests  headers={     'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:88.0) Gecko/20100101 Firefox/88.0',     'reffer':'https://bj.meituan.com/'} response = requests.get("https://waimai.meituan.com/",headers=headers)  #模拟请求url

3.ip地址伪装

对于网络中的反爬虫策略来说,大多数都是根据单个IP的行为来判断是不是网络爬虫的,例如,反爬虫检测到某个IP的访问次数很多,或者是访问的频率很快,就会封禁这个IP。这时我们就要选择代理IP来突破反爬虫的机制,更稳定的及逆行数据的爬取。python添加代理IP的代码如下:

import requests  proxies={'https':'101.236.54.97:8866'}  headers={     'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:88.0) Gecko/20100101 Firefox/88.0',     'reffer':'https://bj.meituan.com/'} response = requests.get("https://waimai.meituan.com/",headers=headers,proxies=proxies)  #模拟请求url

代理IP可以自己去网上找免费的,但不太稳定,也可去花钱买一些比较稳定的。

4.伪装访问速率

真实用户的访问次数以及访问规律是很稳定的,并不会多次的访问,所以我们要伪装成真实的用户来爬取数据,这样反爬虫机制就不会察觉,可以采用控制访问频率的方式,主要是随机设置访问时间,代码如下:

import requests  import time,random proxies={'https':'101.236.54.97:8866'}  headers={     'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:88.0) Gecko/20100101 Firefox/88.0',     'reffer':'https://bj.meituan.com/'} for i in range(10):     response = requests.get("https://waimai.meituan.com/",headers=headers,proxies=proxies)  #模拟请求url     time.sleep(random.uniform(1.1,5.4))

5.伪装用户真实信息

有些网页是需要登录后才会显示数据,而cookie值会携带个人的登录信息,在爬虫中加入cookie值就能避免登录的麻烦,例如知乎、京东等网站,加入方法如下:

import requests  proxies={'https':'101.236.54.97:8866'}  headers={     'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:88.0) Gecko/20100101 Firefox/88.0',     'reffer':'https://bj.meituan.com/'} cookies='' response = requests.get("https://waimai.meituan.com/",headers=headers,proxies=proxies,,cookies=cookies)  #模拟请求url

“python爬虫伪装技巧有哪些”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注编程网网站,小编将为大家输出更多高质量的实用文章!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

python爬虫伪装技巧有哪些

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

python爬虫伪装技巧有哪些

本篇内容介绍了“python爬虫伪装技巧有哪些”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!1.浏览器伪装因为网站服务器能够很轻易的识别出访
2023-06-17

有哪些Python爬虫技巧

这篇文章主要介绍“有哪些Python爬虫技巧”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“有哪些Python爬虫技巧”文章能帮助大家解决问题。1、基本抓取网页get方法import urllib2u
2023-07-06

Python爬虫的技巧有哪些

这篇文章主要介绍“Python爬虫的技巧有哪些”,在日常操作中,相信很多人在Python爬虫的技巧有哪些问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Python爬虫的技巧有哪些”的疑惑有所帮助!接下来,请跟
2023-06-16

常用的python爬虫技巧有哪些

常用的Python爬虫技巧有以下几个:1. 使用requests库发送HTTP请求:使用requests库可以方便地发送HTTP请求,并获取响应结果。2. 使用BeautifulSoup解析HTML:BeautifulSoup是一个强大的H
2023-08-23

有哪些常用的Python爬虫技巧

本篇内容介绍了“有哪些常用的Python爬虫技巧”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!1、基本抓取网页get方法import url
2023-06-16

Python爬虫数据操作的技巧有哪些

这篇文章主要讲解了“Python爬虫数据操作的技巧有哪些”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Python爬虫数据操作的技巧有哪些”吧! 需求爬取某网站的项目列表页,获取其url,标
2023-06-16

Java爬虫技术有哪些

本篇内容主要讲解“Java爬虫技术有哪些”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Java爬虫技术有哪些”吧!一、Jsoup的HTML解析器,可直接解析某个URL地址、HTML文本内容。它提
2023-06-16

python爬虫库有哪些

Python爬虫库有以下几个:1、Beautiful Soup一个Python的HTML/XML解析库,可以轻松地从网页中提取数据。2、Scrapy一个高效的Python爬虫框架,可以快速地构建和部署爬虫程序。3、Requests一个Pyt
2023-05-13

有哪些python爬虫库

本篇文章给大家分享的是有关有哪些python爬虫库,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。python的数据类型有哪些?python的数据类型:1. 数字类型,包括int
2023-06-14

一些常用的Python爬虫技巧汇总

Python爬虫:一些常用的爬虫技巧总结爬虫在开发过程中也有很多复用的过程,这里总结一下,以后也能省些事情。1、基本抓取网页 get方法import urllib2 url "http://www.baidu.com" respons =
2022-06-04

Python爬虫问题有哪些

本篇内容主要讲解“Python爬虫问题有哪些”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Python爬虫问题有哪些”吧!1. 现在爬虫好找工作吗?如果是一年前我可能会说爬虫的工作还是挺好找的,
2023-06-02

用python爬虫抓站的一些技巧总结

在使用Python进行网站爬取时,有一些技巧可以帮助您更有效地抓取站点数据。下面是一些总结:1. 使用合适的爬虫框架:Python中有很多优秀的爬虫框架,如Scrapy、Beautiful Soup等。选择合适的框架可以大大简化爬取过程。2
2023-08-23

Python爬虫工具都有哪些

这篇文章将为大家详细讲解有关Python爬虫工具都有哪些,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。与爬虫相关的常用模块列表。网络通用urllib -网络库(stdlib)。request
2023-06-02

Python爬虫反反爬的策略有哪些

本篇内容主要讲解“Python爬虫反反爬的策略有哪些”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Python爬虫反反爬的策略有哪些”吧!爬虫采集成为很多公司企业个人的需求,但正因为如此,反爬虫
2023-06-01

Python爬虫突破反爬虫机制知识点有哪些

这篇文章主要介绍“Python爬虫突破反爬虫机制知识点有哪些”,在日常操作中,相信很多人在Python爬虫突破反爬虫机制知识点有哪些问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Python爬虫突破反爬虫机制
2023-06-25

Python爬虫架构组成有哪些

这篇文章主要介绍“Python爬虫架构组成有哪些”,在日常操作中,相信很多人在Python爬虫架构组成有哪些问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Python爬虫架构组成有哪些”的疑惑有所帮助!接下来
2023-06-02

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录