您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息

Python爬虫获取图片并下载保存至本地

2024/3/9 23:32:31发布17次查看
这篇文章主要介绍了关于python爬虫获取图片并下载保存至本地,有着一定的参考价值,现在分享给大家,有需要的朋友可以参考一下
1、抓取煎蛋网上的图片。
2、代码如下:
import urllib.request import os #to open the url def url_open(url): req=urllib.request.request(url) req.add_header('user-agent','mozilla/5.0 (windows nt 6.3; wow64; rv:51.0) gecko/20100101 firefox/51.0') response=urllib.request.urlopen(url) html=response.read() return html #to get the num of page like 1,2,3,4... def get_page(url): html=url_open(url).decode('utf-8') a=html.find('current-comment-page')+23 #add the 23 offset th arrive at the [2356] b=html.find(']',a) #print(html[a:b]) return html[a:b] #find the url of imgs and return the url of arr def find_imgs(url): html=url_open(url).decode('utf-8') img_addrs=[] a=html.find('img src=') while a!=-1: b=html.find('.jpg',a,a+255) # if false : return -1 if b!=-1: img_addrs.append('http:'+html[a+9:b+4]) else: b=a+9 a=html.find('img src=',b) #print(img_addrs) return img_addrs #print('http:'+each) #save the imgs def save_imgs(folder,img_addrs): for each in img_addrs: filename=each.split('/')[-1] #get the last member of arr,that is the name with open(filename,'wb') as f: img = url_open(each) f.write(img) def download_mm(folder='mm',pages=10): os.mkdir(folder) os.chdir(folder) url='http://jandan.net/ooxx/' page_num=int(get_page(url)) for i in range(pages): page_num -= i page_url = url + 'page-' + str(page_num) + '#comments' img_addrs=find_imgs(page_url) save_imgs(folder,img_addrs) if __name__ == '__main__': download_mm()
相关推荐:
如何用python爬虫获取那些价值博文
python爬虫获取美剧的网站
以上就是python爬虫获取图片并下载保存至本地的详细内容。
该用户其它信息

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录 Product