如何使用Python爬虫爬取网站图片(python,开发技术)

时间:2024-05-02 10:18:03 作者 : 石家庄SEO 分类 : 开发技术
  • TAG :

此次python3主要用requests,解析图片网址主要用beautiful soup,可以基本完成爬取图片功能,

爬虫这个当然大多数人入门都是爬美女图片,我当然也不落俗套,首先也是随便找了个网址爬美女图片

frombs4importBeautifulSoupimportrequestsif__name__=='__main__':url='http://www.27270.com/tag/649.html'headers={"User-Agent":"Mozilla/5.0(WindowsNT10.0;WOW64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/55.0.2883.87Safari/537.36"}req=requests.get(url=url,headers=headers)req=requests.get(url=url,headers=headers)req.encoding='gb2312'html=req.textbf=BeautifulSoup(html,'lxml')targets_url=bf.find('div',class_='w1200oh').find_all('a',target='_blank')foreachintargets_url:img_req=requests.get(url=each.get('href'),headers=headers)img_req.encoding='gb2312'html=img_req.textbf=BeautifulSoup(html,'lxml')img_url=bf.find('div',class_='articleV4Body').find('img')['src']name=each.img.get('alt')+'.jpg'path=r'C:\Users\asus\Desktop\新建文件夹'file_name=path+'\\'+nametry:req1=requests.get(img_url,headers=headers)f=open(file_name,'wb')f.write(req1.content)f.close()except:print("someerror")

期间遇到的一个情况是,它到访问img_url的时候总报错连接主机失败,我开始以为是网址加了反爬之类的,但是我单独拿出来一个网址,却可以很容易的访问,百思不得其解,最后咨询大佬告诉我把img_url的每一个都试试看,可能是某一个网址出了问题,找了找果然是有个叛徒,产生的img_url中第二个网址无法访问,怪不得老报错,我应该多试几个的,一叶障目

如何使用Python爬虫爬取网站图片

如何使用Python爬虫爬取网站图片

如何使用Python爬虫爬取网站图片如何使用Python爬虫爬取网站图片

如何使用Python爬虫爬取网站图片

我同时也是个火影迷,掌握基本方法后准备试试爬取火影图片,也是网址找了个网址:

http://desk.zol.com.cn/dongman/huoyingrenzhe/

可以看到火影的图片是以图集的形式储存的,所以这个下载就比刚才的稍微多了一点步骤

查看网站源代码容易发现,图集的链接所在都是class='photo-list-padding'的li标签里,且链接没有补全

如何使用Python爬虫爬取网站图片

点开其中一个链接, http://desk.zol.com.cn/dongman/huoyingrenzhe/(前面为浏览器自动补全,在代码里需要自己补全)

可以看到图片的下载地址以及打开本图集下一张图片的链接

如何使用Python爬虫爬取网站图片

了解完网站的图片构造后动手写代码,我们筛选出图集的链接后,通过图集的链接找到第一张图片下载地址和第二张图片的链接,通过第二张的链接找到第二张的下载地址和第三张的链接,循环下去,直到本图集到底,接着开始第二个图集,直到所有图集下载完毕,代码如下,为了方便循环,我们集成下载图片功能为download函数,解析图片网址功能为parses_picture

frombs4importBeautifulSoupimportrequestsdefdownload(img_url,headers,n):req=requests.get(img_url,headers=headers)name='%s'%n+'='+img_url[-15:]path=r'C:\Users\asus\Desktop\火影壁纸1'file_name=path+'\\'+namef=open(file_name,'wb')f.write(req.content)f.closedefparses_picture(url,headers,n):url=r'http://desk.zol.com.cn/'+urlimg_req=requests.get(url,headers=headers)img_req.encoding='gb2312'html=img_req.textbf=BeautifulSoup(html,'lxml')try:img_url=bf.find('div',class_='photo').find('img').get('src')download(img_url,headers,n)url1=bf.find('div',id='photo-next').a.get('href')parses_picture(url1,headers,n)except:print(u'第%s图片集到头了'%n)if__name__=='__main__':url='http://desk.zol.com.cn/dongman/huoyingrenzhe/'headers={"User-Agent":"Mozilla/5.0(WindowsNT10.0;WOW64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/55.0.2883.87Safari/537.36"}req=requests.get(url=url,headers=headers)req=requests.get(url=url,headers=headers)req.encoding='gb2312'html=req.textbf=BeautifulSoup(html,'lxml')targets_url=bf.find_all('li',class_='photo-list-padding')n=1foreachintargets_url:url=each.a.get('href')parses_picture(url,headers,n)n=n+1

期间遇到的一个情况是每次一个图集到底的时候,就会产生报错,因为找不到下一张图片的链接了,于是我便加上try语句来捕捉这一报错,让程序继续下去,有了bf果然比正则表达式简单,可以通过标签属性很方便的找到想要的信息。

下载情况

如何使用Python爬虫爬取网站图片

 </div> <div class="zixun-tj-product adv-bottom"></div> </div> </div> <div class="prve-next-news">
本文:如何使用Python爬虫爬取网站图片的详细内容,希望对您有所帮助,信息来源于网络。
上一篇:如何使用python数据可视化Seaborn画热力图下一篇:

13 人围观 / 0 条评论 ↓快速评论↓

(必须)

(必须,保密)

阿狸1 阿狸2 阿狸3 阿狸4 阿狸5 阿狸6 阿狸7 阿狸8 阿狸9 阿狸10 阿狸11 阿狸12 阿狸13 阿狸14 阿狸15 阿狸16 阿狸17 阿狸18