我的编程空间,编程开发者的网络收藏夹
学习永远不晚

Python爬虫抓取csdn博客

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

Python爬虫抓取csdn博客


        昨天晚上为了下载保存某位csdn大牛的全部博文,写了一个爬虫来自动抓取文章并保存到txt文本,当然也可以 保存到html网页中。这样就可以不用Ctrl+C 和Ctrl+V了,非常方便,抓取别的网站也是大同小异。

为了解析抓取的网页,用到了第三方模块,BeautifulSoup,这个模块对于解析html文件非常有用,当然也可以自己使用正则表达式去解析,但是比较麻烦。

由于csdn网站的robots.txt文件中显示禁止任何爬虫,所以必须把爬虫伪装成浏览器,而且不能频繁抓取,得sleep一会再抓,使用频繁会被封ip的,但可以使用代理ip。


#-*- encoding: utf-8 -*-
'''
Created on 2014-09-18 21:10:39

@author: Mangoer
@email: 2395528746@qq.com
'''

import urllib2
import re
from bs4 import BeautifulSoup
import random
import time

class CSDN_Blog_Spider:
     def __init__(self,url):

          print '\n'
          print('已启动网络爬虫。。。')
          print  '网页地址: ' + url

          user_agents = [
                    'Mozilla/5.0 (Windows; U; Windows NT 5.1; it; rv:1.8.1.11) Gecko/20071127 Firefox/2.0.0.11',
                    'Opera/9.25 (Windows NT 5.1; U; en)',
                    'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)',
                    'Mozilla/5.0 (compatible; Konqueror/3.5; Linux) KHTML/3.5.5 (like Gecko) (Kubuntu)',
                    'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.8.0.12) Gecko/20070731 Ubuntu/dapper-security Firefox/1.5.0.12',
                    'Lynx/2.8.5rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/1.2.9',
                    "Mozilla/5.0 (X11; Linux i686) AppleWebKit/535.7 (KHTML, like Gecko) Ubuntu/11.04 Chromium/16.0.912.77 Chrome/16.0.912.77 Safari/535.7",
                    "Mozilla/5.0 (X11; Ubuntu; Linux i686; rv:10.0) Gecko/20100101 Firefox/10.0 ",
                   ]
          # use proxy ip 
          # ips_list = ['60.220.204.2:63000','123.150.92.91:80','121.248.150.107:8080','61.185.21.175:8080','222.216.109.114:3128','118.144.54.190:8118',
          #           '1.50.235.82:80','203.80.144.4:80']

          # ip = random.choice(ips_list)
          # print '使用的代理ip地址: ' + ip

          # proxy_support = urllib2.ProxyHandler({'http':'http://'+ip})
          # opener = urllib2.build_opener(proxy_support)
          # urllib2.install_opener(opener)

          agent = random.choice(user_agents)

          req = urllib2.Request(url)
          req.add_header('User-Agent',agent)
          req.add_header('Host','blog.csdn.net')
          req.add_header('Accept','*/*')
          req.add_header('Referer','http://blog.csdn.net/mangoer_ys?viewmode=list')
          req.add_header('GET',url)
          html = urllib2.urlopen(req)
          page = html.read().decode('gbk','ignore').encode('utf-8')

          self.page = page
          self.title = self.getTitle()
          self.content = self.getContent()
          self.saveFile()
          

     def printInfo(self):
          print('文章标题是:   '+self.title + '\n')         
          print('内容已经存储到out.txt文件中!')

     def getTitle(self):
          rex = re.compile('<title>(.*?)</title>',re.DOTALL)          
          match = rex.search(self.page)
          if match:
                return match.group(1)

          return 'NO TITLE'

     def getContent(self):
          bs = BeautifulSoup(self.page)
          html_content_list = bs.findAll('div',{'id':'article_content','class':'article_content'})
          html_content = str(html_content_list[0])

          rex_p = re.compile(r'(?:.*?)>(.*?)<(?:.*?)',re.DOTALL)
          p_list = rex_p.findall(html_content)


          content = ''
          for p in p_list:
               if p.isspace() or p == '':
                    continue
               content = content + p
          return content

     def saveFile(self):
          
          outfile = open('out.txt','a')
          outfile.write(self.content)

     def getNextArticle(self):
          bs2 = BeautifulSoup(self.page)
          html_nextArticle_list = bs2.findAll('li',{'class':'prev_article'})
          # print str(html_nextArticle_list[0])
          html_nextArticle = str(html_nextArticle_list[0])
          # print html_nextArticle

          rex_link = re.compile(r'<a href=\"(.*?)\"',re.DOTALL)
          link = rex_link.search(html_nextArticle)
          # print link.group(1)

          if link:
               next_url = 'http://blog.csdn.net' + link.group(1)
               return next_url

          return None




class Scheduler:
     def __init__(self,url):
          self.start_url = url

     def start(self):
          spider = CSDN_Blog_Spider(self.start_url)
          spider.printInfo()


          while True:
               if spider.getNextArticle():
                    spider = CSDN_Blog_Spider(spider.getNextArticle())
                    spider.printInfo()
               elif spider.getNextArticle() == None:
                    print 'All article haved been downloaded!'
                    break

               time.sleep(10)



#url = input('请输入CSDN博文地址:')
url = "http://blog.csdn.net/mangoer_ys/article/details/38427979"

Scheduler(url).start()


程序中有个问题一直不能解决:不能使用标题去命名文件,所以所有的文章全部放在一个out.txt中,说的编码的问题,希望大神可以解决这个问题。 


免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

Python爬虫抓取csdn博客

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

Python爬虫抓取csdn博客

昨天晚上为了下载保存某位csdn大牛的全部博文,写了一个爬虫来自动抓取文章并保存到txt文本,当然也可以 保存到html网页中。这样就可以不用Ctrl+C 和Ctrl+V了,非常方便,抓取别的网站也是大同小异。为了解析抓取的网页,用到了第三
2023-01-31

如何使用python爬取csdn博客访问量

最近学习了python和爬虫,想写一个程序练练手,所以我就想到了大家都比较关心的自己的博客访问量,使用python来获取自己博客的访问量,这也是后边我将要进行的项目的一部分,后边我会对博客的访问量进行分析,以折线图和饼图等可视化的方式展示自
2022-06-04

Python 爬虫爬取指定博客的所有文章

自上一篇文章 Z Story : Using Django with GAE Python 后台抓取多个网站的页面全文 后,大体的进度如下: 1.增加了Cron: 用来告诉程序每隔30分钟 让一个task 醒来, 跑到指定的那几个博客上去爬
2022-06-04

将博客搬至CSDN —— python

差不多两年前在oschina写的博客,现在搬到CSDN,原地址:https://my.oschina.net/u/2309100/blog/818777摘要:     python的处理速率并不太理想,在一些需要高速数据运算的应用场景时,p
2023-01-31

爬取博客园有关爬虫的文章

最近自己的测试小圈子里都在讨论爬虫,发现我装逼都困难了许多,所以决定快速补充一下这方面的东西。    到网上找了点视频,实在是看不进去(主要是对装逼没有什么帮助),然后又由于略微懒得原因就写了这个小东西。    没有封装,流水账式写法,比较
2023-01-30

python爬虫怎么抓取html

使用 python 爬虫抓取 html 代码的步骤:安装 requests 库;导入 requests 模块;使用 get() 方法获取 html 代码;解析 html 代码;提取所需数据(例如标题、正文)。如何使用 Python 爬虫抓取
python爬虫怎么抓取html
2024-05-22

python爬虫怎么爬取微博热搜

这篇文章主要介绍python爬虫怎么爬取微博热搜,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!python有哪些常用库python常用的库:1.requesuts;2.scrapy;3.pillow;4.twiste
2023-06-14

Python制作爬虫抓取美女图

作为一个新世纪有思想有文化有道德时刻准备着的?潘磕星嗄辏?谙衷谡庋?桓錾缁嶂校?奶畚掖舐?サ种拼蟀俣鹊那疤嵯拢?皇露?仙贤?涔?Y看看斗鱼翻翻美女图片那是必不可少的,可是美图虽多翻页费劲!今天我们就搞个爬虫把美图都给扒下来!本次实例有2个:
2022-06-04

Python爬虫抓取技术的门道

web是一个开放的平台,这也奠定了web从90年代初诞生直至今日将近30年来蓬勃的发展。然而,正所谓成也萧何败也萧何,开放的特性、搜索引擎以及简单易学的html、css技术使得web成为了互联网领域里最为流行和成熟的信息传播媒介;但如今作为
2023-06-02

Python爬虫入门教程——爬取自己的博

互联网时代里,网络爬虫是一种高效地信息采集利器,可以快速准确地获取网上的各种数据资源。本文使用Python库requests、Beautiful Soup爬取CSDN博客的相关信息,利用txt文件转存。基础知识:网络爬虫是一种高效地信息采集
2023-01-30

python爬虫如何爬取微博粉丝数据

这篇文章主要介绍了python爬虫如何爬取微博粉丝数据,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。python可以做什么Python是一种编程语言,内置了许多有效的工具,P
2023-06-14

Python 简单爬虫抓取糗事百科

该爬虫主要实现的功能是抓取糗事百科里面的一些段子。    urllib2可以用urllib2.openurl中设置Request参数,来修改Header头。如果你访问一个网站,想更改User Agent(可以伪装你的浏览器),你就要用url
2023-01-31

如何用Python爬虫抓取代理IP

本篇文章为大家展示了如何用Python爬虫抓取代理IP,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。不知道大家在访问网站的时候有没有遇到过这样的状况就是被访问的网站会给出一个提示,提示的显示是“访问
2023-06-02

如何使用python爬虫抓取弹幕

这篇文章主要讲解了“如何使用python爬虫抓取弹幕”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“如何使用python爬虫抓取弹幕”吧!一、爬虫是什么?百度百科这样说:自动获取网页内容的程序
2023-06-29

Python爬虫抓取时怎么更换ip

这篇文章将为大家详细讲解有关Python爬虫抓取时怎么更换ip,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。python的五大特点是什么python的五大特点:1.简单易学,开发程序时,专注的是解决问题,
2023-06-15

Python怎么爬虫博文

本篇内容主要讲解“Python怎么爬虫博文”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Python怎么爬虫博文”吧!一. 大数据及数据挖掘基础***部分主要简单介绍三个问题:1、什么是大数据?
2023-06-17

Python抓取框架Scrapy爬虫入门:页面提取

前言 Scrapy是一个非常好的抓取框架,它不仅提供了一些开箱可用的基础组建,还能够根据自己的需求,进行强大的自定义。本文主要给大家介绍了关于Python抓取框架Scrapy之页面提取的相关内容,分享出来供大家参考学习,下面随着小编来一起学
2022-06-04

怎么用python爬虫抓取网页文本

使用Python爬虫抓取网页文本可以使用第三方库requests和beautifulsoup。首先,安装requests和beautifulsoup库:pip install requestspip install beautifulsou
2023-10-18

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录