欧美三区_成人在线免费观看视频_欧美极品少妇xxxxⅹ免费视频_a级毛片免费播放_鲁一鲁中文字幕久久_亚洲一级特黄

編寫Python腳本批量下載DesktopNexus壁紙的教程

系統 1733 0

DesktopNexus 是我最喜愛的一個壁紙下載網站,上面有許多高質量的壁紙,幾乎每天必上, 每月也必會堅持分享我這個月來收集的壁紙

但是 DesktopNexus 壁紙的下載很麻煩,而且因為壁紙會通過瀏覽器檢測你當前分辨率來展示 合適你當前分辨率的壁紙,再加上是國外的網站,速度上很不樂觀。

于是我寫了個腳本,檢測輸入的頁面中壁紙頁面的鏈接,然后批量下載到指定文件夾中。

腳本使用 python 寫的,所以需要機器上安裝有 python 。
用法:

            
$ python desktop_nexus.py -p http://www.desktopnexus.com/tag/cat/ -s 1280x800 -o wallpapers


          

??? -p 包含 DesktopNexus 壁紙鏈接的頁面,比如我的壁紙分享
??? -s 壁紙尺寸,可選,缺省為 1440x900
??? -o 壁紙輸出的文件夾,可選,缺省為當前目錄下的 wallpapers, 如果不存在會自動創建

代碼:

            
#-*- coding: utf-8 -*-
from argparse import ArgumentParser

import os, re, sys
import urllib2, cookielib, urlparse

RE_WALLPAPER = r'http\:\/\/[^\/\.]+\.desktopnexus\.com\/wallpaper\/\d+\/'
CHUNK_SIZE = 1024 * 3

class DesktopNexus:
  def __init__(self, page=None, size=None, output_dir=None):
    self.page = page
    self.size = size
    self.output_dir = output_dir

  def start(self):
    print 'Making output directory:', self.output_dir
    if not os.path.exists(self.output_dir):
      os.makedirs(self.output_dir)

    # Setup cookie
    cookie = cookielib.CookieJar()
    processer = urllib2.HTTPCookieProcessor(cookie)
    opener = urllib2.build_opener(processer)
    urllib2.install_opener(opener)

    self._read_page()

  def _get_pic_info(self, url):
    pic_id = url.split('/')[-2]
    html = urllib2.urlopen(url).read()
    pattern = r'
            
              .*?)\"' % pic_id
    match = re.search(pattern, html, flags=re.I|re.M|re.S)
    if match:
      return {'id': pic_id,
          'token': match.group('token'),
          'size': self.size}
    else:
      raise Exception('Cound not find wallpaper')

  def _get_pic_file(self, pic_info):
    redirect_url = 'http://www.desktopnexus.com/dl/inline/%(id)s/%(size)s/%(token)s' % pic_info

    request = urllib2.urlopen(redirect_url)
    return request.geturl()

  def _download_pic(self, url):
    pic_info = self._get_pic_info(url)
    pic_file = self._get_pic_file(pic_info)
    filename = os.path.split(urlparse.urlparse(pic_file).path)[-1]
    filename = os.path.join(self.output_dir, filename)
    with open(filename, 'wb') as output:
      resp = urllib2.urlopen(pic_file)
      total_size = int(resp.info().get('Content-Length'))
      saved_size = 0.0
      while saved_size != total_size:
        chunk = resp.read(CHUNK_SIZE)
        saved_size += len(chunk)
        output.write(chunk)
        self._print_progress('Saving file: %s' % filename, \
            saved_size / total_size * 100)

  def _print_progress(self, msg, progress):
    sys.stdout.write('%-71s%3d%%\r' \
        % (len(msg) <= 70 and msg or msg[:67] + '...', progress))
    sys.stdout.flush()
    if progress >= 100:
      sys.stdout.write('\n')

  def _read_page(self):
    try:
      print 'Fetching content:', self.page
      html = urllib2.urlopen(self.page).read()
      links = set(re.findall(RE_WALLPAPER, html, re.M|re.I))
      count = len(links)

      print 'Downloading wallpapers:'
      for i, link in enumerate(links):
        print '[%d/%d]: %s' % (i + 1, count, link)
        try:
          self._download_pic(link)
        except Exception as e:
          print 'Error downloading wallpaper.', e.message
    except Exception as e:
      print 'Error fetching content.', e

if __name__ == '__main__':
  # Setup argparser
  parser = ArgumentParser('python desktop_nexus.py')
  parser.add_argument('-p', '--page', dest='page', required=True, \
      help='specific a page that includes wallpaper list')
  parser.add_argument('-s', '--size', dest='size', default='1440x900', \
      help='specific the wallpaper size, default to 1440x900')
  parser.add_argument('-o', '--output', dest='output_dir', default='wallpapers', \
      help='specific the output directory, default to "wallpapers"')
  args = parser.parse_args()
  dn = DesktopNexus(**args.__dict__)
  dn.start()


            
          



更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 曰批全过程40分钟免费视频多人 | 午夜专区| 亚洲成人精品在线观看 | 久久国产a | 久久国产精品超级碰碰热 | 亚洲综合色婷婷久久 | 日日狠狠的日日日日 | 天天拍夜夜操 | 国产精品九九久久99视频 | 狠久久| 欧美成人h版在线观看 | 色天天综合网 | 男女搞逼视频 | 97精品久久 | 国产激情视频 | 一区二区久久 | 中文字幕在线一区 | 欧美日韩图区 | 日本最新中文字幕 | 夜色4se.bar| 日本免费高清一区 | 無码一区中文字幕少妇熟女H | 一区二区三区四区国产 | 亚洲热久久 | 亚洲国产品综合人成综合网站 | 夜夜夜精品视频 | 亚洲午夜网未来影院 | 91蜜芽尤物福利在线观看 | 国产精品久久久久久久久软件 | 成人伊人 | 精品国产一区二区三区久久 | 国产一区二区欧美 | 亚洲精品乱码久久久久久蜜桃91 | 午夜午夜精品一区二区三区文 | 国产成人精品一区二区三区视频 | 免费国产自久久久久三四区久久 | 亚洲国产aⅴ成人精品无吗 最新国产网址 | 免费xxxx日本大片在线观看 | 国产欧美一区二区久久 | 特黄aaaaaa久久片 | 天天色综合影视 |