目的:在百度貼吧輸入關(guān)鍵字和要查找的起始結(jié)束頁(yè),獲取帖子里面樓主所發(fā)的圖片
思路:
- 獲取分頁(yè)里面的帖子鏈接列表
- 獲取帖子里面樓主所發(fā)的圖片鏈接列表
- 保存圖片到本地
注意事項(xiàng):
- 問(wèn)題:在谷歌瀏覽器使用xpath helper插件時(shí)有匹配結(jié)果,但在程序里面使用python內(nèi)帶的xpath匹配卻為空的原因。
- 原因:不同服務(wù)器會(huì)對(duì)不同的瀏覽器返回不同的數(shù)據(jù),導(dǎo)致在谷歌瀏覽器看到的和服務(wù)器返回的有區(qū)別
- 解決方法:使用IE瀏覽器的User-agenet,而且越老的版本,報(bào)錯(cuò)幾率相對(duì)越小
#!/usr/bin/env python # -*- coding:utf-8 -*- import urllib2 import urllib import os from lxml import etree keyword = raw_input('請(qǐng)輸入要查詢(xún)的關(guān)鍵字: ') keyword = {'kw':keyword} kw = urllib.urlencode(keyword) startpage = raw_input('請(qǐng)輸入開(kāi)始頁(yè)數(shù): ') endpage = raw_input('請(qǐng)輸入結(jié)束頁(yè)數(shù): ') url = 'https://tieba.baidu.com/f' + '?' + kw print('開(kāi)始下載...') # 計(jì)算下載的圖片個(gè)數(shù),注意:變量n如放在最外層循環(huán),可以統(tǒng)計(jì)每個(gè)分頁(yè)圖片個(gè)數(shù) n = 0 # 獲取分頁(yè)里面帖子鏈接列表,獲取每個(gè)帖子里樓主所發(fā)的圖片鏈接列表,保存圖片 # 獲取帖子鏈接列表 for page in range(int(startpage),int(endpage)+1): pnumber = {'pn': str((page - 1)*50)} pnumber = urllib.urlencode(pnumber) fullurl = url + '&' + pnumber # 發(fā)現(xiàn)使用谷歌瀏覽器的User-Agent,會(huì)導(dǎo)致后面的xpath匹配結(jié)果有時(shí)為空。原因:服務(wù)器會(huì)對(duì)不同的瀏覽器發(fā)出的同一請(qǐng)求返回不同格式的數(shù)據(jù),此時(shí)返回的數(shù)據(jù)和在谷歌瀏覽器里面看到的數(shù)據(jù)不同。 # 解決辦法:使用IE瀏覽器的User-Agent,因?yàn)镮E的相對(duì)來(lái)說(shuō)更標(biāo)準(zhǔn),而且版本越老問(wèn)題越少。 headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko"} request = urllib2.Request(fullurl,headers=headers) response = urllib2.urlopen(request) html = response.read() # 解析html 為 HTML DOM文檔 content = etree.HTML(html) # xpath使用下面括號(hào)內(nèi)容進(jìn)行匹配,使用a的屬性使用了class='j_th_tit'去過(guò)濾廣告則匹配結(jié)果為空;換成a的屬性rel="noreferrer"就解決。為啥換不清楚。思路,這個(gè)屬性不行換個(gè)屬性。 # 獲取每個(gè)分頁(yè)里面的帖子的鏈接列表 link_list = content.xpath('//div[@class="threadlist_lz clearfix"]/div/a[@rel="noreferrer"]/@href') # 獲取該帖子樓主所發(fā)的圖片鏈接列表 for link in link_list: link = 'https://tieba.baidu.com' + link request2 = urllib2.Request(link,headers=headers) response2 = urllib2.urlopen(request2) html2 = response2.read() # 把html字符串解析為html dom content2 = etree.HTML(html2) # 使用xpath匹配其里面層主所發(fā)的圖片的鏈接 link_list2 = content2.xpath('//img[@class="BDE_Image"]/@src') # 遍歷圖片鏈接列表,保存圖片到文件夾images內(nèi) for link2 in link_list2: request3 = urllib2.Request(link2,headers=headers) response3 = urllib2.urlopen(request3) html3 = response3.read() # 指定文件名 filename = link2[-10:] n += 1 print('正在保存第 %3d 張圖片'%n) # html3為返回的圖片內(nèi)容,把圖片寫(xiě)入images2文件夾內(nèi) with open('images' + '/' + filename,'wb') as f: f.write(html3) print('下載結(jié)束!')
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號(hào)聯(lián)系: 360901061
您的支持是博主寫(xiě)作最大的動(dòng)力,如果您喜歡我的文章,感覺(jué)我的文章對(duì)您有幫助,請(qǐng)用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點(diǎn)擊下面給點(diǎn)支持吧,站長(zhǎng)非常感激您!手機(jī)微信長(zhǎng)按不能支付解決辦法:請(qǐng)將微信支付二維碼保存到相冊(cè),切換到微信,然后點(diǎn)擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對(duì)您有幫助就好】元
