最近对爬虫比较感兴趣,所以就学了一下,看人家都在网上爬取那么多美女图片养眼,我也迫不及待的试了一下,不多说,切入正题。
其实爬取图片和你下载图片是一个样子的,都是操作链接,也就是url,所以当我们确定要爬取的东西后就要开始寻找url了,所以先打开百度图片搜一下
然后使用浏览器F12进入开发者模式,或者右键检查元素
注意看xhr,点开观察有什么不一样的(如果没有xhr就在网页下滑)
第一个是这样的
第二个是这样的
注意看,pn是不是是30的倍数,而此时网页图片的数量也在增多,发现了这个,进url看一下,首先看原网页源码
view-source:http://image.baidu.com/search/index"ObjURL":"http:\/\/image.tianjimedia.com\/uploadimages\/2015\/131\/34\/545szi3x5s84_680x500.jpg"
就是这个,好,现在东西都找到在哪了,写程序咯
import re import requests import os name=input('输入文件夹名称:') robot='C:/Users/lenovo/Desktop/'+name+'/' kv={'user-agent':'mozilla/5.0'} #获取url对应的源码页面 def getHTMLText(url): try: r=requests.get(url,timeout=30,headers=kv) r.raise_for_status() r.encoding=r.apparent_encoding return r.text except: return '' #解析url源码页面 def parserHTML(html): #正则表达式为获取ObjURL pattern=r'"ObjURL":"(.*"' reg=re.compile(pattern) urls=re.findall(reg,html) return urls #下载图片 def download(List): for url in List: try: path=robot+url.split('/')[-1] url=url.replace('\\','') r=requests.get(url,timeout=30) r.raise_for_status() r.encoding=r.apparent_encoding if not os.path.exists(robot): os.makedirs(robot) if not os.path.exists(path): with open(path,'wb') as f: f.write(r.content) f.close() print(path+' 文件保存成功') else: print('文件已经存在') except: continue #通过Requests URL请求到更多的url源码页面 def getmoreurl(num,word): ur=[] url=r'http://image.baidu.com/search/acjson"" src="/UploadFiles/2021-04-08/20191218102209.jpg">我知道你们会原谅我的
以上这篇python3 requests库实现多图片爬取教程就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
最新资源
- 群星《国风超有戏 第7期》[FLAC/分轨][147.99MB
- 群星《闪光的夏天 第3期》[320K/MP3][61.94MB]
- 群星《闪光的夏天 第3期》[FLAC/分轨][336MB]
- 【迷幻电音】Elea-2024-Hypnos(FLAC)
- 【民族融合】VA-2024-TheOrientCollective:Gold
- 谭嘉仪-EyesOnMe新曲+精选2022【低速原抓WAV+CU
- 尚士达《莫回头》[320K/MP3][184.64MB]
- 尚士达《莫回头》[Hi-Res][24bit 48kHz][FLAC/分
- 群星《奔赴!万人现场 第3期》[320K/MP3][98.9MB
- 谭嘉仪《Lonely》【WAV+CUE】