python3 网页爬虫图片下载无效链
代码比较粗糙,主要是备忘容易出错的地方。供自己以后查阅。
#图片下载
import re
import urllib.request #python3中模块名和2.x(urllib)的不一样
site='https://world.taobao.com/item/530762904536.htm?spm=a21bp.7806943.topsale_XX.4.jcjxZC'
page=urllib.request.urlopen(site)
html=page.read()
html=html.decode('utf-8') #读取下来的网页源码需要转换成utf-8格式
reg=r'class="lazy" data-src="//(gd.*?jpg)'
imgre=re.compile(reg)
imglist=re.findall(imgre,html)
trueurls=[]
for i in imglist:
trueurls.append(i.replace('gd','http://gd'))
trueurls[2]='/file/imgs/upload/202301/31/2y5b5vypata.jpg'
print (trueurls)
x=200
for j in trueurls:
try:
urllib.request.urlretrieve(j,'%s.jpg' %x)
except Exception : #except Exception as e:
pass # print (e)
# print ('有无效链接')
x=x+1
在except子句可以打印出一些提示信息
下载图片的时候,如果有无效的链接,可以用try except跳过无效链接继续下一个图片的下载
免责声明:
① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。
② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341