python requests爬虫返回403错误?加了所有特征的请求头+代理也解决不了的问题处理
短信预约 -IT技能 免费直播动态提醒
一、问题分析
【疑惑】:使用python的requests库发起get或post请求返回403代码错误,使用postman发起请求发现状态码<200>竟然成功了。这是什么原因?首先排除ip问题,ip有问题的话postman也访问不了。难道是headers出现了问题吗,通过对比发现也不是headers的问题。那就奇了怪了?
【解疑】:其实遇到这种情况大概率是遇到了“原生模拟浏览器 TLS/JA3 指纹的验证”,浏览器和postman都有自带指纹验证,而唯独requests库没有。这就让反爬有了区分人为和爬虫的突破口。
二、问题解决
1、使用 pyhttpx 库(推荐)
1.1、安装
pip install pyhttpx
1.2、代码示例
import pyhttpxheaders = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36",}session = pyhttpx.HttpSession()res = session.get(url='https://www.baidu.com/',headers=headers)print(res.text)
2、使用 curl_cffi 库(用得少)
2.1、安装
pip install curl_cffi
2.2、代码示例
from curl_cffi import requestsres = requests.get(url='https://www.baidu.com/',impersonate="chrome101")print(res.text)
3、使用httpx库(极力推荐)
3.1、安装
pip install httpx
3.2、代码示例
import httpxheaders = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36",}res = httpx.get(url='https://www.baidu.com/', headers=headers, timeout=10, verify=False)print(res.text)
来源地址:https://blog.csdn.net/SweetHeartHuaZai/article/details/130983179
免责声明:
① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。
② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341