欧美三区_成人在线免费观看视频_欧美极品少妇xxxxⅹ免费视频_a级毛片免费播放_鲁一鲁中文字幕久久_亚洲一级特黄

python爬圖片(紳士進來)

系統 1741 0

如果,不是因為圖片,又怎會和各位紳士見面?

環境:

系統:win10

ide:pycharm

模塊:requests, etree

首先我們選一個有很多妹子圖片的網站,我提供一個:https://www.mzitu.com/jiepai/

下面我們開始:

1.分析網頁結構:

? ? ? ?打開網頁,按F12打開調試,然后選中一個圖片,看它的結構:

有一個data-original屬性。屬性值就是圖片的鏈接,并且這個標簽的class是“lazy”,我們可以用etree找到這個節點,拿到圖片的地址,然后下載保存到本地。

初始參數:

header是發起請求時,告訴服務器瀏覽器的信息

            
              header = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36",
    "Referer": "https://www.mzitu.com/jiepai/comment-page-1/",
}

name = 0

japan_url_first = "https://www.mzitu.com/japan/" #第一頁
japan_url_other = "https://www.mzitu.com/japan/page/{}/" #非第一頁
            
          

第一頁的網址是https://www.mzitu.com/japan/,我們先爬取這個頁面的圖片,分為兩個步驟:

①:將網頁上的所有class=“lazy”的標簽的data-original屬性找出來,也就是把頁面上所有的圖片地址以一個數組返回

            
              #獲取圖片鏈接
def get_url(html_url): # 獲取圖片鏈接,并返回
    html = requests.get(html_url,headers = header).text   #獲取網頁代碼
    etree_html = etree.HTML(html)
    img_url = etree_html.xpath('//img[@class="lazy"]/@data-original')
    return img_url
            
          

②:遍歷圖片地址數組,下載圖片

            
               img_list = get_url(url)
        for img in img_list:
            print("正在此地址{}的圖片".format(img))
            get_img(img)
            
          
            
              #下載圖片
def get_img(url):    #下載圖片保存到指定文件夾
    global name
    name += 1
    img_name = "D:\\pythonFetch\\imgs\\{}.jpg".format(name)
    img = requests.get(url, headers = header).content
    with open(img_name, 'wb') as save_img: # python自動幫我們調用save_img.close
        save_img.write(img)
            
          

img_name:為圖片保存的地址

但是這只是一個頁面的圖片,能不能一次爬取簽10頁,前100頁的圖片呢? 可以:

我們發現第一頁的網址:https://www.mzitu.com/japan/

第二頁的網址:https://www.mzitu.com/japan/page/2/

第三頁:https://www.mzitu.com/japan/page/3/

第n頁:https://www.mzitu.com/japan/page/n/

可以看出來除了第一頁,其余都是有規律的,那么好說:

            
              #主函數
def main():  # 使用for循環爬取所有網頁
    for n in range(1,24):
        if n == 1:
            page_url = japan_url_first
        else:
            page_url = japan_url_other.format(n)
        print("正在爬取第{}頁".format(n))
        html = get_html(page_url)
        img_list = get_url(html)
        for img in img_list:
            print("正在此地址{}的圖片".format(img))
            get_img(img)
main()
            
          

完整代碼:

            
              '''
    設置瀏覽器頭部
    User-Agent表示瀏覽器的參數信息
    Referer用于設置使用哪個網頁跳轉過來
    url設置網址模板,可以通過.format參數補充網址
'''
from lxml import etree
import requests

header = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36",
    "Referer": "https://www.mzitu.com/jiepai/comment-page-1/",
}
name = 0

japan_url_first = "https://www.mzitu.com/japan/" #第一頁
japan_url_other = "https://www.mzitu.com/japan/page/{}/" #非第一頁


#下載網頁
def get_html(url): #獲取網頁代碼,并以值的形式彈出
    html = requests.get(url,headers = header).text
    return html

#下載圖片
def get_img(url):    #下載圖片保存到指定文件夾
    global name
    name += 1
    img_name = "D:\\pythonFetch\\imgs\\{}.jpg".format(name)
    img = requests.get(url, headers = header).content
    with open(img_name, 'wb') as save_img: # python自動幫我們調用save_img.close
        save_img.write(img)

#獲取圖片鏈接
def get_url(html): # 獲取圖片鏈接,并返回
    etree_html = etree.HTML(html)
    img_url = etree_html.xpath('//img[@class="lazy"]/@data-original')
    return img_url

#主函數
def main():  # 使用for循環爬取所有網頁
    for n in range(1,24):
        if n == 1:
            page_url = japan_url_first
        else:
            page_url = japan_url_other.format(n)
        print("正在爬取第{}頁".format(n))
        html = get_html(page_url)
        img_list = get_url(html)
        for img in img_list:
            print("正在此地址{}的圖片".format(img))
            get_img(img)
main()



            
          

然后運行一把,美女圖片盡收眼底哈。。


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 四虎影院最新网址 | 国产视频国产 | 上海一级毛片 | 免费在线一区二区 | 欧美日韩专区国产精品 | 国产亚洲成av人在线观看导航 | 午夜影院在线观看版 | 国产欧美在线观看视频 | 亚洲视频观看 | 91视频国内| a免费视频 | 青青草视频网 | 韩国三级bd高清中字木鱼天 | 日韩欧美一区二区三区在线视频 | 亚洲偷图色综合色就色 | 一区二区中文 | 欧美日韩无线码免费播放 | 成人福利视频在线看高清观看 | 亚洲成人精品在线 | 国产免费观看一区二区三区 | 亚洲另类天天更新影院在线观看 | 免费一级片在线观看 | 日韩中文字幕在线播放 | 亚洲一级视频在线观看 | 国产日韩欧美不卡 | 亚洲一区影院 | 91久久久久久久久久久 | 欧美一级久久 | 免费在线一区二区三区 | 9久热这里只有精品免费 | 日韩免费在线观看视频 | 国产图片区 | 婷婷六月天激情 | 国产乱妇无码大黄AA片 | snh48欧洲大片在线观看 | 国产欧美一区二区精品忘忧草 | 欧美激情精品久久久久久黑人 | 男女性高爱潮免费网站 | 国产午夜精品久久久 | 五月婷婷导航 | 欧美欲妇激情视频在线 |