首页 > 编程语言 > 详细

Python3爬取Wallhaven.cc图片

时间:2019-12-15 22:28:41      阅读:716      评论:0      收藏:0      [点我收藏+]

https://wallhaven.cc/ 上有很多优秀壁纸图片,网站访问速度有点慢,还是抓下来看比较方便。

1、安装python3

2、pip安装requests、lxml

3、运行代码

技术分享图片

 

 

# -*- coding: utf-8 -*-
#wallhaven爬取
import os
from urllib.parse import urlencode
import time
from requests import codes
import random
import requests
from lxml import etree

#定义创建文件路径函数,将下载的文件存储到该路径
def CreatePath(filepath):
    if not os.path.exists(filepath):
            os.makedirs(filepath)

#定义获取url函数,这里是通过urlencode方法把url的各个部分拼接起来的,拼接起来的url
#像是这样的:https://wallhaven.cc/search?q=girls&categories=111&purity=110&sorting=toplist&order=desc        
def GetUrl(keyword,category):
    params = {
        q: keyword,
        categories: category,
        purity: ‘110,#100\010\110
        sorting: favorites, #relevance\random\date_added\views\favorites\toplist\toplist-beta
        topRange:1y, #1y\6M\3M\1w\3d\1d
        order:desc
    }
    base_url=https://wallhaven.cc/search?
    url=base_url + urlencode(params)
    print(url)
    return url

#获取查找到的图片数
def GetPictureNum(url):
    allpic=" "
    try:
        html = requests.get(url) 
        if codes.ok == html.status_code:
            selector = etree.HTML(html.text) 
            pageInfo = selector.xpath(//header[@class="listing-header"]/h1[1]/text())#提取出文本
            string = str(pageInfo[0])#图片数是文本中的第一个
            numlist = list(filter(str.isdigit,string))  #有些数字是这样的,11,123,所以需要整理。
            for item in numlist:
                allpic+=item
            totalPicNum=int(allpic)  #把拼接起来的字符串进行整数化
            return totalPicNum
    except requests.ConnectionError:
        return None
        
#获取图片链接
def GetLinks(url,number):
    urls=url+&page=+str(number)
    try:
        html=requests.get(urls)
        selector=etree.HTML(html.text)
        PicLink=selector.xpath(//a[@class="preview"]/@href)#这里寻找图片的链接地址,以求得到图片编号
    except Exception as e:
        print(Error,e.args)
    return PicLink    
    
#下载函数    
def Download(filepath,keyword,url,count,headers):#其中count是你要下载的图片数
#此函数用于图片下载。其中参数url是形如:https://wallhaven.cc/w/eyyoj8 的网址
#因为wallheaven上只有两种格式的图片,分别是png和jpg,所以设置两种最终地址HtmlJpg和HtmlPng,通过status_code来进行判断,状态码为200时请求成功。
    string=url.replace(https://wallhaven.cc/w/,‘‘) #python3 replace
    #print(string)
    HtmlJpg=https://w.wallhaven.cc/full/+ string[0:2] +/wallhaven- + string +.jpg
    HtmlPng=https://w.wallhaven.cc/full/+ string[0:2] +/wallhaven- + string +.png
    
    try:
        pic=requests.get(HtmlJpg,headers=headers)
        if codes.ok==pic.status_code:
            pic_path=filepath+wallhaven-+string+.jpg           
        else:
            pic=requests.get(HtmlPng,headers=headers)
            if codes.ok==pic.status_code:
                pic_path=filepath+wallhaven-+string+.png
            else:
                print("Downloaded error:",string)
                return
        with open(pic_path,wb) as f:
            f.write(pic.content)
            f.close()
        print("Downloaded image:",string)
        time.sleep(random.uniform(0,3))#这里是让爬虫在下载完一张图片后休息一下,防被侦查到是爬虫从而引发反爬虫机制。
            
    except Exception as e:
        print(repr(e))    
        
#主函数
def main():
    headers = {
        "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_5)        AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.104 Safari/537.36",#请求头,这个可以通过查看你自己的浏览器得到。
        }
    filepath = (/wallpaper/Pictures/)#存储路径。
    keyword=input(请输入关键词:)
    category=input(请输入图片分类,共有三种,分别为Gneral,Anime,People三种                   ,如果你想要只想选择Anime,就键入010,如果全选就键入111,以此类推:)
    CreatePath(filepath) #创建保存路径
    url=GetUrl(keyword,category)   #获取url
    
    PicNum=GetPictureNum(url)#总图片数
    pageNum=int(PicNum/24+1)  #求出总页面数
    print("We found:{} images.".format(PicNum))

    j=1
    Arr = input("请输入你想要爬的图片数,不能超过已找到的图片数:【若要设定其实页码用|分割,如:50|10(即从第10页开始,取50个)】").split(|)
    Num = int(Arr[0])
    pageStart=0
    if(len(Arr) == 2):
        pageStart = int(Arr[1])

    for i in range(pageStart,pageNum):
        PicUrl=GetLinks(url,i+1)
        for item in PicUrl:
            #print(item)
            Download(filepath,keyword,item,j,headers)
            j+=1
            if(j>Num):#如果你下载的图片够用了,那就直接退出循环,结束程序。
                return

if __name__ == __main__:
    main()        

 

参考地址:https://www.jianshu.com/p/90f734cb895d

Python3爬取Wallhaven.cc图片

原文:https://www.cnblogs.com/kuangxiangnice/p/12046059.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!