黄色网页视频 I 影音先锋日日狠狠久久 I 秋霞午夜毛片 I 秋霞一二三区 I 国产成人片无码视频 I 国产 精品 自在自线 I av免费观看网站 I 日本精品久久久久中文字幕5 I 91看视频 I 看全色黄大色黄女片18 I 精品不卡一区 I 亚洲最新精品 I 欧美 激情 在线 I 人妻少妇精品久久 I 国产99视频精品免费专区 I 欧美影院 I 欧美精品在欧美一区二区少妇 I av大片网站 I 国产精品黄色片 I 888久久 I 狠狠干最新 I 看看黄色一级片 I 黄色精品久久 I 三级av在线 I 69色综合 I 国产日韩欧美91 I 亚洲精品偷拍 I 激情小说亚洲图片 I 久久国产视频精品 I 国产综合精品一区二区三区 I 色婷婷国产 I 最新成人av在线 I 国产私拍精品 I 日韩成人影音 I 日日夜夜天天综合

Python實(shí)現(xiàn)爬取知乎神回復(fù)簡(jiǎn)單爬蟲代碼分享

系統(tǒng) 2312 0

看知乎的時(shí)候發(fā)現(xiàn)了一個(gè) “如何正確地吐槽” 收藏夾,里面的一些神回復(fù)實(shí)在很搞笑,但是一頁一頁地看又有點(diǎn)麻煩,而且每次都要打開網(wǎng)頁,于是想如果全部爬下來到一個(gè)文件里面,是不是看起來很爽,并且隨時(shí)可以看到全部的,于是就開始動(dòng)手了。

工具

1.Python 2.7
2.BeautifulSoup

分析網(wǎng)頁

我們先來看看知乎上該網(wǎng)頁的情況

網(wǎng)址: ,容易看到,網(wǎng)址是有規(guī)律的,page慢慢遞增,這樣就能夠?qū)崿F(xiàn)全部爬取了。

再來看一下我們要爬取的內(nèi)容:

Python實(shí)現(xiàn)爬取知乎神回復(fù)簡(jiǎn)單爬蟲代碼分享_第1張圖片 我們要爬取兩個(gè)內(nèi)容:?jiǎn)栴}和回答,回答僅限于顯示了全部?jī)?nèi)容的回答,如下面這種就不能爬取,因?yàn)楹孟駸o法展開(反正我不會(huì)。。),再說答案不全的話爬來也沒用,所以就不爬答案不全的了吧。

Python實(shí)現(xiàn)爬取知乎神回復(fù)簡(jiǎn)單爬蟲代碼分享_第2張圖片

好,那么下面我們要找到他們?cè)诰W(wǎng)頁源代碼中的位置:

即我們找到問題的內(nèi)容包含在

中,那么我們等會(huì)就可以在這個(gè)標(biāo)簽里面找問題。

然后是回復(fù):

Python實(shí)現(xiàn)爬取知乎神回復(fù)簡(jiǎn)單爬蟲代碼分享_第3張圖片 有兩個(gè)地方都有回復(fù)的內(nèi)容,因?yàn)樯厦婺莻€(gè)的內(nèi)容還包括了 等一些內(nèi)容,不方便處理,我們爬下面那個(gè)的內(nèi)容,因?yàn)槟莻€(gè)里面的內(nèi)容純正無污染。

代碼

好,這時(shí)候我們?cè)囍鴮懗鰌ython代碼:

復(fù)制代碼 代碼如下:

# -*- coding: cp936 -*-
import urllib2
from BeautifulSoup import BeautifulSoup

f = open('howtoTucao.txt','w')???? #打開文件

for pagenum in range(1,21):??????? #從第1頁爬到第20頁

??? strpagenum = str(pagenum)????? #頁數(shù)的str表示
??? print "Getting data for Page " + strpagenum?? #shell里面顯示的,表示已爬到多少頁
??? url = "http://www.zhihu.com/collection/27109279?page="+strpagenum? #網(wǎng)址
??? page = urllib2.urlopen(url)???? #打開網(wǎng)頁
??? soup = BeautifulSoup(page)????? #用BeautifulSoup解析網(wǎng)頁
???
??? #找到具有class屬性為下面兩個(gè)的所有Tag
??? ALL = soup.findAll(attrs = {'class' : ['zm-item-title','zh-summary summary clearfix'] })

??? for each in ALL :?????????????? #枚舉所有的問題和回答
??????? #print type(each.string)
??????? #print each.name
??????? if each.name == 'h2' :????? #如果Tag為h2類型,說明是問題
??????????? print each.a.string???? #問題中還有一個(gè) ,所以要each.a.string取出內(nèi)容
??????????? if each.a.string:?????? #如果非空,才能寫入
??????????????? f.write(each.a.string)
??????????? else :????????????????? #否則寫"No Answer"
??????????????? f.write("No Answer")
??????? else :????????????????????? #如果是回答,同樣寫入
??????????? print each.string
??????????? if each.string:
??????????????? f.write(each.string)
??????????? else :
??????????????? f.write("No Answer")
f.close()?????????????????????????? #關(guān)閉文件

代碼雖然不常,可是寫了我半天,開始各種出問題。

運(yùn)行

然后我們運(yùn)行就可以爬了:

Python實(shí)現(xiàn)爬取知乎神回復(fù)簡(jiǎn)單爬蟲代碼分享_第4張圖片 結(jié)果

等運(yùn)行完畢,我們打開文件howtoTucao.txt,可以看到,這樣就爬取成功了。只是格式可能還是有點(diǎn)問題,原來是我No Answer沒加換行,所以No Answer還會(huì)混到文本里面去,加兩個(gè)換行就可以了。

Python實(shí)現(xiàn)爬取知乎神回復(fù)簡(jiǎn)單爬蟲代碼分享_第5張圖片


更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號(hào)聯(lián)系: 360901061

您的支持是博主寫作最大的動(dòng)力,如果您喜歡我的文章,感覺我的文章對(duì)您有幫助,請(qǐng)用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點(diǎn)擊下面給點(diǎn)支持吧,站長(zhǎng)非常感激您!手機(jī)微信長(zhǎng)按不能支付解決辦法:請(qǐng)將微信支付二維碼保存到相冊(cè),切換到微信,然后點(diǎn)擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對(duì)您有幫助就好】

您的支持是博主寫作最大的動(dòng)力,如果您喜歡我的文章,感覺我的文章對(duì)您有幫助,請(qǐng)用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長(zhǎng)會(huì)非常 感謝您的哦!!!

發(fā)表我的評(píng)論
最新評(píng)論 總共0條評(píng)論