我的编程空间,编程开发者的网络收藏夹
学习永远不晚

python爬虫怎么使用BeautifulSoup库

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

python爬虫怎么使用BeautifulSoup库

本篇内容介绍了“python爬虫怎么使用BeautifulSoup库”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

  BeautiSoup类的基本元素及用bs4遍历HTML基本方法

  1,BeautifulSoup类的基本元素

  有5种基本元素:

  Tag: 标签,最基本的信息组织单元, .

  Name: 标签名字, ..name :返回一个字符串

  Attributes: 标签的属性, ..attrs :返回一个字典类型

  NavigableString:标签中的字符串, ..string :返回一个字符串

  Comment: 标签中的注释信息,会在 ..string中获得。

  比如现在有一个HTML文档:

  The demo python introduces several python courses.

  Python is a wonderful general-purpose programming language. You can learn Python from novice to professional by tracking the following courses:

  Basic Python

  and

  Advanced Python.

  This is not a Comment.

  我们对此文档用BS类的基本元素进行应用:

  先煲一锅汤:>>> soup = BeautifulSoup(html, "html.parser")

  用 .获得一个标签的全部信息:

  如:>>> soup.p

python爬虫怎么使用BeautifulSoup库

  用.name获得这个标签的名字:

  如:>>> p.name

python爬虫怎么使用BeautifulSoup库

  Tag属性还有另外一个重要的用法, 就是当我们对一个标签内的子节点进行遍历时,可能会有不是标签的节点,比如’\n’等,此时可利用bs4库提供的bs4.element.Tag属性来进行甄别。

  用到 isinstance()方法。比如:isinstance(soup.a, bs4.element.Tag)

python爬虫怎么使用BeautifulSoup库

  用.attrs获得这个标签的属性:

  如>>> soup.a.attrs

python爬虫怎么使用BeautifulSoup库

  可以对a标签的具体属性进行获得:>>> soup.a['href']

python爬虫怎么使用BeautifulSoup库

  用.string获得这个标签中的字符串信息:

  如:>>> soup.p.string:

python爬虫怎么使用BeautifulSoup库

  我们看到.string可以跨越标签,直接获得标签内的字符串。

  但是: 当外层标签内含有多个平行的内层标签时,就不行了:

  比如:郑州人流医院哪家好 http://m.zzzy120.com/

  此p标签内有多个平行的a标签,直接用p.string返回为None

  最后,说说Comment属性

  可用>>> soup.b.string来获得注释的信息:

  二者类型是不同的,因此可用bs4库的 isinstance(, bs4.element.Comment)来过滤注释信息,或者获得注释信息。

  2,用BeautifulSoup遍历HTML的方式

  1,下行遍历:

  3个属性:

  1,.contents : 子节点的列表,将所有儿子节点存入列表(还包括所有的\n)

  2,.children : 子节点的迭代类型,与.contents类似,用于循环遍历儿子节点。

  3, .descendants : 包含所有的子孙节点。与children一样,只能用于迭代。

  2,上行遍历:

  2个属性:

  1,.parent : 节点的父亲标签

  2,.parents: 节点先辈的迭代类型,用于循环遍历先辈节点(所有的先辈)。

  3,平行遍历:

  4个平行遍历属性:(需要发生在同一个父亲节点下的各节点间。)

  1,.next_sibling : 返回按照HTML文本顺序的下一个平行节点标签。

  2,.previous_sibling: 返回。。的上一个平行节点标签。

  3,.next_siblings: 迭代类型, 返回按照顺序的所有平行节点标签。

  4,.previous_sibings:迭代类型 。。。。。。。。。

  3,BeautifulSoup的格式化输出与编码:

  prettify()函数:能够为HTML标签,文本增加换行符,

  1,世界上的所有信息都可以用3中标记形式进行标记。

  XML 格式: 类似于HTML,标签形式。

  JSON: 有类型的键值对 key:value 如:

  "name" : "北京" -----;一个键值对

  "name" : ["hello", "hello"] -----: 一个键对应多个值1

  "name" : {"subkey" : "subvalue"} -----:一个键值对作为一个值对应于一个键

  YAML: 无类型的键值对 : key : value

  name : 北京

  name :

  -newName : 北京

  -newName : 上海 (并列)

  name :

  newname : hello (嵌套)

  比较::

  XML用<>标记 : 扩展性好,但是繁琐。 Internet上的信息交互与传递,多用XML。

  JSON用“” : 信息有类型,适合程序处理(js),较XML整洁。(无法注释) 用于移动应用云端和节点的信息通信。用在对程序接口处处理。

  YAML用缩进 : 信息无类型, 文本信息比例最高,可读性好。各类系统的配置文件,有注释易读。

  2,信息的提取方式

  1,完整解析信息的标记形式,再提取关键信息。

  2,无视标记形式,直接搜索关键信息。

  3,融合方法。

  如:提取HTML中所有的URL标签。

  思路):

  1,搜索所有的标签

  2,解析标签格式,提取href后的链接内容。

  3,find_all()方法

  最常用的查找方法

  <>.find_all(name, attrs, recursive, string, **kwargs)

  返回一个列表类型,存储查找的结果.

  使用方法:

  可单独指定name,attrs, recursive, string等

  标签名, 属性(或字典形式的键值对), 默认为对子孙节点搜索, 字符串。

  (..) 等价于 .find_all(..)

  soup(..) 等价于 soup.find_all(..)

  <>.find()搜索只返回一个结果,字符串结果。

“python爬虫怎么使用BeautifulSoup库”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注编程网网站,小编将为大家输出更多高质量的实用文章!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

python爬虫怎么使用BeautifulSoup库

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

python爬虫怎么使用BeautifulSoup库

本篇内容介绍了“python爬虫怎么使用BeautifulSoup库”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!  BeautiSoup类
2023-06-02

Python爬虫之怎么使用BeautifulSoup和Requests抓取网页数据

这篇文章主要介绍了Python爬虫之怎么使用BeautifulSoup和Requests抓取网页数据的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇Python爬虫之怎么使用BeautifulSoup和Reque
2023-07-05

Python爬虫之使用BeautifulSoup和Requests抓取网页数据

这篇文章主要介绍了Python爬虫之使用BeautifulSoup和Requests抓取网页数据,本篇文章将介绍如何使用Python编写一个简单的网络爬虫,从网页中提取有用的数据,需要的朋友可以参考下
2023-05-14

怎么使用Python爬虫

本篇内容介绍了“怎么使用Python爬虫”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!1.导入模块import re from bs4 im
2023-06-16

Python 爬虫库RoboBrowser怎么用

这篇文章主要介绍“Python 爬虫库RoboBrowser怎么用”,在日常操作中,相信很多人在Python 爬虫库RoboBrowser怎么用问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Python 爬虫
2023-06-13

beautifulsoup库怎么在python中使用

今天就跟大家聊聊有关beautifulsoup库怎么在python中使用,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。1. BeautifulSoup库简介BeautifulSoup
2023-06-06

Python爬虫中urllib库怎么用

这篇文章给大家分享的是有关Python爬虫中urllib库怎么用的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。一、说明:urllib库是python内置的一个http请求库,requests库就是基于该库开发出来
2023-06-29

python爬虫入门教程--HTML文本的解析库BeautifulSoup(四)

前言 python爬虫系列文章的第3篇介绍了网络请求库神器 Requests ,请求把数据返回来之后就要提取目标数据,不同的网站返回的内容通常有多种不同的格式,一种是 json 格式,这类数据对开发者来说最友好。另一种 XML 格式的,还有
2022-06-04

python爬虫中requests库怎么用

小编给大家分享一下python爬虫中requests库怎么用,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!python爬虫—requests库的用法request
2023-06-25

怎么使用python爬虫爬取数据

本篇内容介绍了“怎么使用python爬虫爬取数据”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!python爬出六部曲第一步:安装reques
2023-06-29

爬虫笔记1:Python爬虫常用库

请求库:1、urllib:urllib库是Python3自带的库(Python2有urllib和urllib2,到了Python3统一为urllib),这个库是爬虫里最简单的库。2、requests:requests属于第三方库,使用起来比
2023-01-31

Python爬虫Requests库如何使用

本篇内容主要讲解“Python爬虫Requests库如何使用”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Python爬虫Requests库如何使用”吧!1、安装 requests 库因为学习过
2023-07-06

Python中怎么利用Beautifulsoup爬取网站

这篇文章将为大家详细讲解有关Python中怎么利用Beautifulsoup爬取网站,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。1.开始前准备1.1 python3,本篇博客内容采用pyt
2023-06-17

Python爬虫基础之selenium库怎么用

小编给大家分享一下Python爬虫基础之selenium库怎么用,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!一、selenium简介官网总的来说: seleni
2023-06-15

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录