我的编程空间,编程开发者的网络收藏夹
学习永远不晚

python爬虫13:pymysql库

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

python爬虫13:pymysql库

python爬虫13:pymysql库

前言

​ python实现网络爬虫非常简单,只需要掌握一定的基础知识和一定的库使用技巧即可。本系列目标旨在梳理相关知识点,方便以后复习。

申明

​ 本系列所涉及的代码仅用于个人研究与讨论,并不会对网站产生不好影响。

目录结构

文章目录

1. 概述

​ pymysql是python与MySQL数据库进行交互的库,使用起来非常简单。虽然我用不到MySQL库,电脑重装系统后也没有安装它,但是考虑到可能有的人需要,所以还是说一下它。

​ 学习pymysql非常简单,重要的是要会MySQL的用法,不然单学这个库没啥用的。

2. 方法

2.1 模块:
pymysql
2.2 使用流程:
1. 创建connection2. 获取cursor3. 命令执行4. 关闭cursor5. 关闭connection
2.3 Connection对象:

该对象用于建立与数据库的连接

conn = pymysql.connect(参数列表)

​ 常用的参数:

参数host:连接的mysql主机,如果本机是'localhost'参数port:连接的mysql主机的端口,默认是3306参数database:数据库的名称参数user:连接的用户名参数password:连接的密码参数charset:通信采用的编码方式,推荐使用utf8

​ 该对象的方法:

conn.close()关闭连接conn.commit()提交(将所有的提交)conn.cursor()返回Cursor对象,用于执行sql语句并获得结果
2.4 Cursor对象:

​ 作用:

用于执行sql语句,使用频度最高的语句为select、insert、update、delete

​ 该对象的常用方法:

close()关闭execute(operation [, parameters ])执行语句,返回受影响的行数,主要用于执行insert、update、delete语句,也可以执行create、alter、drop等语句fetchone()执行查询语句时,获取查询结果集的第一个行数据,返回一个元组fetchall()执行查询时,获取结果集的所有行,一行构成一个元组,再将这些元组装入一个元组返回
2.5 使用举例:

​ 例子一:

from pymysql import *def main():    # 创建Connection连接    conn = connect(host='localhost',port=3306,user='root',password='xxx',database='xxx',charset='utf8')    # 获得Cursor对象    cs1 = conn.cursor()    # 执行select语句,并返回受影响的行数:查询一条数据    count = cs1.execute('select id,name from goods where id>=4')    # 打印受影响的行数    print("查询到%d条数据:" % count)    # for i in range(count):    #     # 获取查询的结果    #     result = cs1.fetchone()    #     # 打印查询的结果    #     print(result)    #     # 获取查询的结果    result = cs1.fetchall()    print(result)    # 关闭Cursor对象    cs1.close()    conn.close()if __name__ == '__main__':    main()

​ 例子二:

from pymysql import *def main():    # 创建Connection连接    conn = connect(host='localhost',port=3306,database='xxx',user='root',password='xxx',charset='utf8')    # 获得Cursor对象    cs1 = conn.cursor()    # 执行insert语句,并返回受影响的行数:添加一条数据    # 增加    count = cs1.execute('insert into goods_cates(name) values("硬盘")')    #打印受影响的行数    print(count)    count = cs1.execute('insert into goods_cates(name) values("光盘")')    print(count)    # # 更新    # count = cs1.execute('update goods_cates set name="机械硬盘" where name="硬盘"')    # # 删除    # count = cs1.execute('delete from goods_cates where id=6')    # 提交之前的操作,如果之前已经之执行过多次的execute,那么就都进行提交    conn.commit()    # 关闭Cursor对象    cs1.close()    # 关闭Connection对象    conn.close()if __name__ == '__main__':    main()

3. 总结

​ 由于我没有安装MySQL库,上面的例子(我之前写过的代码)就没有配图,不过这个库是非常简单的,大家稍微看看应该就会了,没啥好说的。

来源地址:https://blog.csdn.net/weixin_46676835/article/details/132574886

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

python爬虫13:pymysql库

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

2019-02-13 Python爬虫问

soup=BeautifulSoup(html.text,'lxml')#data=soup.select('body > div.main > div.ctr > div > div.newsmcont > p:nth-of-type(3
2023-01-30

爬虫笔记1:Python爬虫常用库

请求库:1、urllib:urllib库是Python3自带的库(Python2有urllib和urllib2,到了Python3统一为urllib),这个库是爬虫里最简单的库。2、requests:requests属于第三方库,使用起来比
2023-01-31

python爬虫库有哪些

Python爬虫库有以下几个:1、Beautiful Soup一个Python的HTML/XML解析库,可以轻松地从网页中提取数据。2、Scrapy一个高效的Python爬虫框架,可以快速地构建和部署爬虫程序。3、Requests一个Pyt
2023-05-13

有哪些python爬虫库

本篇文章给大家分享的是有关有哪些python爬虫库,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。python的数据类型有哪些?python的数据类型:1. 数字类型,包括int
2023-06-14

Python爬虫之Requests库的基

1 import requests 2 response = requests.get('http://www.baidu.com/') 3 print(type(response)) 4 print(response.status_
2023-01-30

Python爬虫之必备chardet库

一、chardet库的安装与介绍 玩儿过爬虫的朋友应该知道,在爬取不同的网页时,返回结果会出现乱码的情况。比如,在爬取某个中文网页的时候,有的页面使用GBK/GB2312,有的使用UTF8,如果你需要去爬一些页面,知道网页编码很重要的。 虽
2022-06-02

Python 爬虫库RoboBrowser怎么用

这篇文章主要介绍“Python 爬虫库RoboBrowser怎么用”,在日常操作中,相信很多人在Python 爬虫库RoboBrowser怎么用问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Python 爬虫
2023-06-13

Python 爬虫

--安装爬虫需要的库C:\python37>pip install requestsCollecting requests Downloading https://files.pythonhosted.org/packages/7d/e3
2023-06-02

python—爬虫

1.1 介绍通过过滤和分析HTML代码,实现对文件、图片等资源的获取,一般用到:urllib和urllib2模块正则表达式(re模块)requests模块Scrapy框架urllib库:1)获取web页面2)在远程http服务器上验证3)表
2023-01-31

python爬虫

#!/usr/bin/pythonimport re #导入正则模块import urllib #导入url模块def getHtml(url): #定义获取网页函数 page = urllib.urlopen(url) #打
2023-01-31

python爬虫怎么使用BeautifulSoup库

本篇内容介绍了“python爬虫怎么使用BeautifulSoup库”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!  BeautiSoup类
2023-06-02

Python爬虫中urllib库怎么用

这篇文章给大家分享的是有关Python爬虫中urllib库怎么用的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。一、说明:urllib库是python内置的一个http请求库,requests库就是基于该库开发出来
2023-06-29

Python爬虫教程-01-爬虫介绍

Python 爬虫的知识量不是特别大,但是需要不停和网页打交道,每个网页情况都有所差异,所以对应变能力有些要求参考资料精通Python爬虫框架Scrapy,人民邮电出版社url, httpweb前端,html,css,jsajaxre,xp
2023-01-30

python爬虫中requests库怎么用

小编给大家分享一下python爬虫中requests库怎么用,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!python爬虫—requests库的用法request
2023-06-25

Python爬虫Requests库如何使用

本篇内容主要讲解“Python爬虫Requests库如何使用”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Python爬虫Requests库如何使用”吧!1、安装 requests 库因为学习过
2023-07-06

编程热搜

目录