我的编程空间,编程开发者的网络收藏夹
学习永远不晚

如何用scrapy框架爬取豆瓣读书Top250的书类信息

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

如何用scrapy框架爬取豆瓣读书Top250的书类信息

这篇文章主要讲解了“如何用scrapy框架爬取豆瓣读书Top250的书类信息”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“如何用scrapy框架爬取豆瓣读书Top250的书类信息”吧!

安装方法:Windows:在终端输入命令:pip install scrapy;mac:在终端输入命令:pip3 install scrapy,按下enter键,再输入cd Python,就能跳转到Python文件夹。接着输入cd Pythoncode,就能跳转到Python文件夹里的Pythoncode子文件夹。最后输入一行能帮我们创建Scrapy项目的命令:scrapy startproject douban,douban就是Scrapy项目的名字。按下enter键,一个Scrapy项目就创建成功了。

项目目标:

爬取豆瓣读书Top250的书名,出版信息和评分

目标url为:https://book.douban.com/top250?start=0
整个scrapy项目的结构,如下图

如何用scrapy框架爬取豆瓣读书Top250的书类信息

spiders是放置爬虫的目录。我们在spiders这个文件夹里创建爬虫文件,我们把这个文件命名为top250,大部分代码都需要在这个top250.py文件里编写。在top250.py文件里导入我们需要的模块:import scrapy , bs4
导入scrapy是我们要用创建类的方式写这个爬虫,我们所创建的类将直接继承scrapy中的scrapy.Spider类。这样,有许多好用属性和方法,就能够直接使用。

在Scrapy中,每个爬虫的代码结构基本都如下所示:

class DoubanSpider(scrapy.Spider): #定义一个爬虫类DoubanSpider,DoubanSpider类继承自scrapy.Spider类。    name = 'douban'  #定义爬虫的名字,这个名字是爬虫的唯一标识。    allowed_domains = ['book.douban.com']#定义允许爬虫爬取的网址域名(不需要加https://)。如果网址的域名不在这个列表里,就会被过滤掉。allowed_domains就限制了,我们这种关联爬取的URL,一定在book.douban.com这个域名之下,不会跳转到某个奇怪的广告页面。    start_urls = ['https://book.douban.com/top250?start=0']#定义起始网址,就是爬虫从哪个网址开始抓取        def parse(self, response):#parse是Scrapy里默认处理response的一个方法,中文是解析。        print(response.text)#这里我们并不需要写类似requests.get()的语句,scrapy框架会为我们代劳做这件事,写好你的请求,接下来你就可以直接写对响应如何做处理

每一次,当数据完成记录,它会离开spiders,来到Scrapy Engine(引擎),引擎将它送入Item Pipeline(数据管道)处理。定义这个类的py文件,正是items.py。
如果要爬取豆瓣读书的书名、出版信息和评分,示例:

在items.py里如何定义数据:

import scrapy#导入scrapyclass DoubanItem(scrapy.Item):#定义一个类DoubanItem,它继承自scrapy.Item    title = scrapy.Field()    #定义书名的数据属性    publish = scrapy.Field()    #定义出版信息的数据属性    score = scrapy.Field()    #定义评分的数据属性

scrapy.Field()这行代码实现的是,让数据能以类似字典的形式记录,它输出的结果非常像字典,但它却并不是dict,它的数据类型是我们定义的DoubanItem,属于自定义的Python字典.我们利用类似上述代码的样式,去重新写top250.py

import scrapyimport bs4from ..items import DoubanItem# 需要引用DoubanItem,它在items里面。因为是items在top250.py的上一级目录,所以要用..items,这是一个固定用法。class DoubanSpider(scrapy.Spider):#定义一个爬虫类DoubanSpider。    name = 'douban'    #定义爬虫的名字为douban。    allowed_domains = ['book.douban.com']    #定义爬虫爬取网址的域名。    start_urls = []    #定义起始网址。    for x in range(3):        url = 'https://book.douban.com/top250?start=' + str(x * 25)        start_urls.append(url)        #把豆瓣Top250图书的前3页网址添加进start_urls。    def parse(self, response):    #parse是默认处理response的方法。        bs = bs4.BeautifulSoup(response.text,'html.parser')        #用BeautifulSoup解析response。        datas = bs.find_all('tr',class_="item")        #用find_all提取<tr class="item">元素,这个元素里含有书籍信息。        for data in  datas:        #遍历data。            item = DoubanItem()            #实例化DoubanItem这个类。            item['title'] = data.find_all('a')[1]['title']            #提取出书名,并把这个数据放回DoubanItem类的title属性里。            item['publish'] = data.find('p',class_='pl').text            #提取出出版信息,并把这个数据放回DoubanItem类的publish里。            item['score'] = data.find('span',class_='rating_nums').text            #提取出评分,并把这个数据放回DoubanItem类的score属性里。            print(item['title'])            #打印书名。            yield item            #yield item是把获得的item传递给引擎。

当我们每一次,要记录数据的时候,比如前面在每一个最小循环里,都要记录“书名”,“出版信息”,“评分”。我们会实例化一个item对象,利用这个对象来记录数据。
每一次,当数据完成记录,它会离开spiders,来到Scrapy Engine(引擎),引擎将它送入Item Pipeline(数据管道)处理。这里,要用到yield语句。
yield语句它有点类似return,不过它和return不同的点在于,它不会结束函数,且能多次返回信息。

如何用scrapy框架爬取豆瓣读书Top250的书类信息

就如同上图所示:爬虫(Spiders)会把豆瓣的10个网址封装成requests对象,引擎会从爬虫(Spiders)里提取出requests对象,再交给调度器(Scheduler),让调度器把这些requests对象排序处理。然后引擎再把经过调度器处理的requests对象发给下载器(Downloader),下载器会立马按照引擎的命令爬取,并把response返回给引擎。
紧接着引擎就会把response发回给爬虫(Spiders),这时爬虫会启动默认的处理response的parse方法,解析和提取出书籍信息的数据,使用item做记录,返回给引擎。引擎将它送入Item Pipeline(数据管道)处理。

代码实操&mdash;&mdash;设置

点击settings.py文件,把USER _AGENT的注释取消(删除#),然后替换掉user-agent的内容,就是修改了请求头。
因为Scrapy是遵守robots协议的,如果是robots协议禁止爬取的内容,Scrapy也会默认不去爬取,所以修改Scrapy中的默认设置。把ROBOTSTXT_OBEY=True改成ROBOTSTXT_OBEY=False,就是把遵守robots协议换成无需遵从robots协议,这样Scrapy就能不受限制地运行。

1.

想要运行Scrapy有两种方法,一种是在本地电脑的终端跳转到scrapy项目的文件夹

(跳转方法:cd+文件夹的路径名如:
cd D:\python\Pythoncode\douban\douban)
然后输入命令行:scrapy crawl douban(douban 就是我们爬虫的名字)。)

2.

另一种运行方式需要我们在最外层的大文件夹里新建一个main.py文件(与scrapy.cfg同级)。

然后在这个main.py文件里,输入以下代码,点击运行,Scrapy的程序就会启动。

from scrapy import cmdline#导入cmdline模块,可以实现控制终端命令行。cmdline.execute(['scrapy','crawl','douban'])#用execute()方法,输入运行scrapy的命令。

第1行代码:在Scrapy中有一个可以控制终端命令的模块cmdline。导入了这个模块,我们就能操控终端。
第2行代码:在cmdline模块中,有一个execute方法能执行终端的命令行,不过这个方法需要传入列表的参数。我们想输入运行Scrapy的代码scrapy crawl douban,就需要写成[&lsquo;scrapy&rsquo;,&lsquo;crawl&rsquo;,&lsquo;douban&rsquo;]这样。
在实际项目实战中,我们应该先定义数据,再写爬虫。所以,流程图应如下:

如何用scrapy框架爬取豆瓣读书Top250的书类信息

最后,存储数据需要修改pipelines.py文件

感谢各位的阅读,以上就是“如何用scrapy框架爬取豆瓣读书Top250的书类信息”的内容了,经过本文的学习后,相信大家对如何用scrapy框架爬取豆瓣读书Top250的书类信息这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是编程网,小编将为大家推送更多相关知识点的文章,欢迎关注!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

如何用scrapy框架爬取豆瓣读书Top250的书类信息

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

如何用scrapy框架爬取豆瓣读书Top250的书类信息

这篇文章主要讲解了“如何用scrapy框架爬取豆瓣读书Top250的书类信息”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“如何用scrapy框架爬取豆瓣读书Top250的书类信息”吧!安装方
2023-07-05

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录