我的编程空间,编程开发者的网络收藏夹
学习永远不晚

如何使用python爬取知乎热榜Top50数据

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

如何使用python爬取知乎热榜Top50数据

1、导入第三方库


import urllib.request,urllib.error  #请求网页
from bs4 import BeautifulSoup  # 解析数据
import sqlite3  # 导入数据库
import re # 正则表达式
import time # 获取当前时间

2、程序的主函数


def main():
    # 声明爬取网页
    baseurl = "https://www.zhihu.com/hot"
    # 爬取网页
    datalist = getData(baseurl)
    #保存数据
    dbname = time.strftime("%Y-%m-%d", time.localtime()) # 
    dbpath = "zhihuTop50  " + dbname
    saveData(datalist,dbpath)

3、正则表达式匹配数据


#正则表达式
findlink = re.compile(r'<a class="css-hi1lih" href="(.*?)" rel="external nofollow"  rel="external nofollow" ') #问题链接
findid = re.compile(r'<div class="css-blkmyu">(.*?)</div>') #问题排名
findtitle = re.compile(r'<h1 class="css-3yucnr">(.*?)</h1>') #问题标题
findintroduce = re.compile(r'<div class="css-1o6sw4j">(.*?)</div>') #简要介绍
findscore = re.compile(r'<div class="css-1iqwfle">(.*?)</div>') #热门评分
findimg = re.compile(r'<img class="css-uw6cz9" class="lazy" data-src="(.*?)"/>') #文章配图

4、程序运行结果

在这里插入图片描述

在这里插入图片描述

5、程序源代码


import urllib.request,urllib.error
from bs4 import BeautifulSoup
import sqlite3
import re
import time

def main():
    # 声明爬取网页
    baseurl = "https://www.zhihu.com/hot"
    # 爬取网页
    datalist = getData(baseurl)
    #保存数据
    dbname = time.strftime("%Y-%m-%d", time.localtime())
    dbpath = "zhihuTop50  " + dbname
    saveData(datalist,dbpath)
    print()
#正则表达式
findlink = re.compile(r'<a class="css-hi1lih" href="(.*?)" rel="external nofollow"  rel="external nofollow" ') #问题链接
findid = re.compile(r'<div class="css-blkmyu">(.*?)</div>') #问题排名
findtitle = re.compile(r'<h1 class="css-3yucnr">(.*?)</h1>') #问题标题
findintroduce = re.compile(r'<div class="css-1o6sw4j">(.*?)</div>') #简要介绍
findscore = re.compile(r'<div class="css-1iqwfle">(.*?)</div>') #热门评分
findimg = re.compile(r'<img class="css-uw6cz9" class="lazy" data-src="(.*?)"/>') #文章配图

def getData(baseurl):
    datalist = []
    html = askURL(baseurl)
    # print(html)

    soup = BeautifulSoup(html,'html.parser')
    for item in soup.find_all('a',class_="css-hi1lih"):
        # print(item)
        data = []
        item = str(item)

        Id = re.findall(findid,item)
        if(len(Id) == 0):
            Id = re.findall(r'<div class="css-mm8qdi">(.*?)</div>',item)[0]
        else: Id = Id[0]
        data.append(Id)
        # print(Id)

        Link = re.findall(findlink,item)[0]
        data.append(Link)
        # print(Link)

        Title = re.findall(findtitle,item)[0]
        data.append(Title)
        # print(Title)

        Introduce = re.findall(findintroduce,item)
        if(len(Introduce) == 0):
            Introduce = " "
        else:Introduce = Introduce[0]
        data.append(Introduce)
        # print(Introduce)

        Score = re.findall(findscore,item)[0]
        data.append(Score)
        # print(Score)

        Img = re.findall(findimg,item)
        if (len(Img) == 0):
            Img = " "
        else: Img = Img[0]
        data.append(Img)
        # print(Img)
        datalist.append(data)
    return datalist
def askURL(baseurl):
    # 设置请求头
    head = {
        # "User-Agent": "Mozilla/5.0 (Windows NT 10.0;Win64;x64) AppleWebKit/537.36(KHTML, likeGecko) Chrome/80.0.3987.163Safari/537.36"
        "User-Agent": "Mozilla / 5.0(iPhone;CPUiPhoneOS13_2_3likeMacOSX) AppleWebKit / 605.1.15(KHTML, likeGecko) Version / 13.0.3Mobile / 15E148Safari / 604.1"
    }
    request = urllib.request.Request(baseurl, headers=head)
    html = ""
    try:
        response = urllib.request.urlopen(request)
        html = response.read().decode("utf-8")
        # print(html)
    except urllib.error.URLError as e:
        if hasattr(e, "code"):
            print(e.code)
        if hasattr(e, "reason"):
            print(e.reason)
    return html
    print()
def saveData(datalist,dbpath):
    init_db(dbpath)
    conn = sqlite3.connect(dbpath)
    cur = conn.cursor()

    for data in datalist:
        sql = '''
        insert into Top50(
        id,info_link,title,introduce,score,img)
        values("%s","%s","%s","%s","%s","%s")'''%(data[0],data[1],data[2],data[3],data[4],data[5])
        print(sql)
        cur.execute(sql)
        conn.commit()
    cur.close()
    conn.close()
def init_db(dbpath):
    sql = '''
    create table Top50
    (
    id integer primary key autoincrement,
    info_link text,
    title text,
    introduce text,
    score text,
    img text
    )
    '''
    conn = sqlite3.connect(dbpath)
    cursor = conn.cursor()
    cursor.execute(sql)
    conn.commit()
    conn.close()

if __name__ =="__main__":
    main()

到此这篇关于如何使用python爬取知乎热榜Top50数据的文章就介绍到这了,更多相关python 爬取知乎内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

如何使用python爬取知乎热榜Top50数据

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

如何用python爬取知乎话题?

因为要做观点,观点的屋子类似于知乎的话题,所以得想办法把他给爬下来,搞了半天最终还是妥妥的搞定了,代码是python写的,不懂得麻烦自学哈!懂得直接看代码,绝对可用#coding:utf-8"""@author:haoning@create
2023-01-31

使用python怎么爬取微博的热搜数据

使用python怎么爬取微博的热搜数据?很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。主要用到requests和bf4两个库将获得的信息保存在d://hotsea
2023-06-06

如何使用python爬取电商数据

要使用Python爬取电商数据,可以按照以下步骤进行:1. 确定目标网站:首先要确定你要爬取的电商网站,以及你要爬取的数据类型。2. 分析网站结构:使用开发者工具或者浏览器插件,查看目标网站的源代码,分析网站的结构和数据获取方式。3. 安装
2023-08-23

如何用python爬取网页数据

要用Python爬取网页数据,可以使用Python的一些库和模块,例如requests、BeautifulSoup和Scrapy等。下面是一个简单的示例,使用requests和BeautifulSoup库来爬取网页数据:```pythoni
2023-10-12

如何使用Python爬取各大高校数据

这篇文章主要介绍如何使用Python爬取各大高校数据,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!一、获取url打开中国教育在线网,按 F12,顶部选择NetWork,选择XHR刷新页面,观察url,通过对Repon
2023-06-15

Python中如何使用requsets获取知乎最有价值的内容

本篇文章为大家展示了Python中如何使用requsets获取知乎最有价值的内容,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。一 前言 使用requsets 爬取知乎中最优价值的内容,写一段获取
2023-06-04

如何使用PHP做异步爬取数据

这篇“如何使用PHP做异步爬取数据”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“如何使用PHP做异步爬取数据”文章吧。什么是
2023-07-05

python如何使用XPath解析数据爬取起点小说网数据

小编给大家分享一下python如何使用XPath解析数据爬取起点小说网数据,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!python的数据类型有哪些?python
2023-06-14

如何使用Python爬取历年高考数据并分析

这篇文章给大家分享的是有关如何使用Python爬取历年高考数据并分析的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。开发工具**Python版本:**3.6.4相关模块:pyecharts模块;以及一些Python
2023-06-15

如何使用代理服务器爬取数据

这篇文章将为大家详细讲解有关如何使用代理服务器爬取数据,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。1、爬取步骤(1)导入程序所需的库。使用代理服务器,可以新设函数(use_proxy)参数
2023-06-14

如何用Python爬取马蜂窝的出行数据

这期内容当中小编将会给大家带来有关如何用Python爬取马蜂窝的出行数据,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。正值火辣的暑假,朋友圈已经被大家的旅行足迹刷屏了,真的十分惊叹于那些把全国所有省基本走
2023-06-17

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录