欧美三区_成人在线免费观看视频_欧美极品少妇xxxxⅹ免费视频_a级毛片免费播放_鲁一鲁中文字幕久久_亚洲一级特黄

Python采集騰訊新聞實例

系統 1651 0

目標是把騰訊新聞主頁上所有新聞爬取下來,獲得每一篇新聞的名稱、時間、來源以及正文。

接下來分解目標,一步一步地做。

步驟1: 將主頁上所有鏈接爬取出來,寫到文件里。

python在獲取html方面十分方便,寥寥數行代碼就可以實現我們需要的功能。

復制代碼 代碼如下:
def getHtml(url):
???? page = urllib.urlopen(url)
???? html = page.read()
???? page.close()
???? return html

我們都知道html鏈接的標簽是“a”,鏈接的屬性是“href”,也就是要獲得html中所有tag=a,attrs=href 值。

查閱了資料,一開始我打算用HTMLParser,而且也寫出來了。但是它有一個問題,就是遇到中文字符的時候無法處理。

復制代碼 代碼如下:

?class parser(HTMLParser.HTMLParser):
???? def handle_starttag(self, tag, attrs):
???????????? if tag == 'a':
???????????? for attr, value in attrs:
???????????????? if attr == 'href':
???????????????????? print value

后來使用了SGMLParser,它就沒有這個問題。
復制代碼 代碼如下:

class URLParser(SGMLParser):??????
??????? def reset(self):
??????????????? SGMLParser.reset(self)
??????????????? self.urls = []
?
??????? def start_a(self,attrs):???????
??????????????? href = [v for k,v in attrs if k=='href']?????????
??????????????? if href:
??????????????????????? self.urls.extend(href)

SGMLParser針對某個標簽都需要重載它的函數,這里是把所有的鏈接放到該類的urls里。

復制代碼 代碼如下:

lParser = URLParser()#分析器來的
socket = urllib.urlopen("http://news.qq.com/")#打開這個網頁

fout = file('urls.txt', 'w')#要把鏈接寫到這個文件里
lParser.feed(socket.read())#分析啦

reg = 'http://news.qq.com/a/.*'#這個是用來匹配符合條件的鏈接,使用正則表達式匹配
pattern = re.compile(reg)

for url in lParser.urls:#鏈接都存在urls里
??? if pattern.match(url):
??????? fout.write(url+'\n')

fout.close()

這樣子就把所有符合條件的鏈接都保存到urls.txt文件里了。

步驟2: 對于每一個鏈接,獲取它的網頁內容。

很簡單,只需要打開urls.txt文件,一行一行地讀出來就可以了。

也許這里會顯得多此一舉,但是基于我對解耦的強烈愿望,我還是果斷地寫到文件里了。后面如果采用面向對象編程,重構起來是十分方便的。

獲取網頁內容部分也是相對簡單的,但是需要把網頁的內容都保存到一個文件夾里。

這里有幾個新的用法:

復制代碼 代碼如下:

os.getcwd()#獲得當前文件夾路徑
os.path.sep#當前系統路徑分隔符(是這個叫法嗎?)windows下是“\”,linux下是“/”

#判斷文件夾是否存在,如果不存在則新建一個文件夾
if os.path.exists('newsdir') == False:
??? os.makedirs('newsdir')

#str()用來將某個數字轉為字符串
i = 5
str(i)

有了這些方法,將字符串保存到某個文件夾下不同的文件就不再是一件困難的事了。

步驟3: 枚舉每一個網頁,根據正則匹配獲得目標數據。

下面的方法是用來遍歷文件夾的。

復制代碼 代碼如下:

?#這個是用來遍歷某個文件夾的
?for parent, dirnames, filenames in os.walk(dir):
???? for dirname in dirnames
???????? print parent, dirname
???? for filename in filenames:
???????? print parent, filename

遍歷,讀取,匹配,結果就出來了。

我使用的數據提取的正則表達式是這樣的:

復制代碼 代碼如下:

reg = '
.*?

(.*?)

.*? (.*?) .*? (.*?) .*?
(.*?)
'

其實這個并不能匹配到騰訊網的所有新聞,因為上面的新聞有兩種格式,標簽有一點差別,所以只能提取出一種。

另外一點就是通過正則表達式的提取肯定不是主流的提取方法,如果需要采集其他網站,就需要變更正則表達式,這可是一件比較麻煩的事情。

提取之后觀察可知,正文部分總是會參雜一些無關信息,比如“ ”“

”等等。所以我再通過正則表達式將正文切片。

復制代碼 代碼如下:

def func(str):#誰起的這個名字
??? strs = re.split(" |

更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 精品中文字幕久久久久久 | 国产丫丫视频私人影院 | 少妇特黄A片一区二区三区免费看 | 亚洲无线 | 国产一区二区三区免费观看 | 美女爽到呻吟久久久久 | 美女国产网站 | 日本亚洲国产精品久久 | 天天射天天操天天干 | 91官网| 九九久久99综合一区二区 | 久久久久国产 | 日本午夜免费无码片三汲大片 | 亚欧视频在线观看 | 色婷婷久久 | 日韩综合一区二区 | 欧美色偷偷亚洲天堂bt | 摸金校尉之九幽将军 | 国产日韩亚洲不卡高清在线观看 | 免费观看一级特黄欧美大片 | 欧美a视频在线观看 | 国产伦理久久精品久久久久 | 丁香综合五月 | 日韩一级一欧美一级国产 | WWW.亚洲最大夜色伊人 | 成人精品视频 | 亚洲国产综合精品中文第一区 | 最新国产网址 | 嘿咻嘿咻免费区在线观看吃奶 | 九九亚洲精品 | 不卡中文一二三区 | 良妾很能生 | 日韩中文字幕网 | 日韩视频在线一区二区三区 | 欧美金妇欧美乱妇视频 | 欧美综合自拍亚洲综合百度 | 成人在线免费小视频 | 天天射天天干 | 欧美日韩高清不卡一区二区三区 | 欧美三极| 亚洲草原天堂 |