欧美三区_成人在线免费观看视频_欧美极品少妇xxxxⅹ免费视频_a级毛片免费播放_鲁一鲁中文字幕久久_亚洲一级特黄

編寫Python腳本批量下載DesktopNexus壁紙的教程

系統 1733 0

DesktopNexus 是我最喜愛的一個壁紙下載網站,上面有許多高質量的壁紙,幾乎每天必上, 每月也必會堅持分享我這個月來收集的壁紙

但是 DesktopNexus 壁紙的下載很麻煩,而且因為壁紙會通過瀏覽器檢測你當前分辨率來展示 合適你當前分辨率的壁紙,再加上是國外的網站,速度上很不樂觀。

于是我寫了個腳本,檢測輸入的頁面中壁紙頁面的鏈接,然后批量下載到指定文件夾中。

腳本使用 python 寫的,所以需要機器上安裝有 python 。
用法:

            
$ python desktop_nexus.py -p http://www.desktopnexus.com/tag/cat/ -s 1280x800 -o wallpapers


          

??? -p 包含 DesktopNexus 壁紙鏈接的頁面,比如我的壁紙分享
??? -s 壁紙尺寸,可選,缺省為 1440x900
??? -o 壁紙輸出的文件夾,可選,缺省為當前目錄下的 wallpapers, 如果不存在會自動創建

代碼:

            
#-*- coding: utf-8 -*-
from argparse import ArgumentParser

import os, re, sys
import urllib2, cookielib, urlparse

RE_WALLPAPER = r'http\:\/\/[^\/\.]+\.desktopnexus\.com\/wallpaper\/\d+\/'
CHUNK_SIZE = 1024 * 3

class DesktopNexus:
  def __init__(self, page=None, size=None, output_dir=None):
    self.page = page
    self.size = size
    self.output_dir = output_dir

  def start(self):
    print 'Making output directory:', self.output_dir
    if not os.path.exists(self.output_dir):
      os.makedirs(self.output_dir)

    # Setup cookie
    cookie = cookielib.CookieJar()
    processer = urllib2.HTTPCookieProcessor(cookie)
    opener = urllib2.build_opener(processer)
    urllib2.install_opener(opener)

    self._read_page()

  def _get_pic_info(self, url):
    pic_id = url.split('/')[-2]
    html = urllib2.urlopen(url).read()
    pattern = r'
            
              .*?)\"' % pic_id
    match = re.search(pattern, html, flags=re.I|re.M|re.S)
    if match:
      return {'id': pic_id,
          'token': match.group('token'),
          'size': self.size}
    else:
      raise Exception('Cound not find wallpaper')

  def _get_pic_file(self, pic_info):
    redirect_url = 'http://www.desktopnexus.com/dl/inline/%(id)s/%(size)s/%(token)s' % pic_info

    request = urllib2.urlopen(redirect_url)
    return request.geturl()

  def _download_pic(self, url):
    pic_info = self._get_pic_info(url)
    pic_file = self._get_pic_file(pic_info)
    filename = os.path.split(urlparse.urlparse(pic_file).path)[-1]
    filename = os.path.join(self.output_dir, filename)
    with open(filename, 'wb') as output:
      resp = urllib2.urlopen(pic_file)
      total_size = int(resp.info().get('Content-Length'))
      saved_size = 0.0
      while saved_size != total_size:
        chunk = resp.read(CHUNK_SIZE)
        saved_size += len(chunk)
        output.write(chunk)
        self._print_progress('Saving file: %s' % filename, \
            saved_size / total_size * 100)

  def _print_progress(self, msg, progress):
    sys.stdout.write('%-71s%3d%%\r' \
        % (len(msg) <= 70 and msg or msg[:67] + '...', progress))
    sys.stdout.flush()
    if progress >= 100:
      sys.stdout.write('\n')

  def _read_page(self):
    try:
      print 'Fetching content:', self.page
      html = urllib2.urlopen(self.page).read()
      links = set(re.findall(RE_WALLPAPER, html, re.M|re.I))
      count = len(links)

      print 'Downloading wallpapers:'
      for i, link in enumerate(links):
        print '[%d/%d]: %s' % (i + 1, count, link)
        try:
          self._download_pic(link)
        except Exception as e:
          print 'Error downloading wallpaper.', e.message
    except Exception as e:
      print 'Error fetching content.', e

if __name__ == '__main__':
  # Setup argparser
  parser = ArgumentParser('python desktop_nexus.py')
  parser.add_argument('-p', '--page', dest='page', required=True, \
      help='specific a page that includes wallpaper list')
  parser.add_argument('-s', '--size', dest='size', default='1440x900', \
      help='specific the wallpaper size, default to 1440x900')
  parser.add_argument('-o', '--output', dest='output_dir', default='wallpapers', \
      help='specific the output directory, default to "wallpapers"')
  args = parser.parse_args()
  dn = DesktopNexus(**args.__dict__)
  dn.start()


            
          



更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 亚洲精品久久久久久无码AV | 99亚洲视频 | 日韩一区二区三区在线视频 | 欧美激情黄色 | 青草草在线视频 | 国产亚洲精品久久精品录音 | 蜜桃精品久久久久久久免费影院 | 日韩影音 | 中文字幕免费在线观看 | 日本高清视频网址 | 欧美成年黄网站色视频 | 国产精品免费在线播放 | 午夜精品一区二区三区免费视频 | 四虎在线免费观看视频 | 高清亚洲 | 婷婷天天 | 欧美一区二区精品 | 天天天操 | 四虎伊人 | 免费中日高清无专码有限公司 | 国产黄色在线观看 | 久久观看免费视频 | 欧美激烈大尺度叫床的床戏 | 小视频你懂得 | 婷婷色综合 | 日朝欧美亚洲精品 | 亚洲另类自拍 | 日韩精品一区在线观看 | 天天综合色天天桴色 | 精品一区二区电影 | 久久久欧美综合久久久久 | 欧美精品一区二区三区四区 | 在线观看亚洲一区二区 | 欧美怡红院 | 日本黄色福利视频 | 久久久国产精品免费A片蜜臀 | 夜夜骑狠狠干 | 久久国产免费观看精品 | 91视频社区 | 在线精品自拍亚洲第一区 | 夜色成人网|