爬蟲工作的三個基本步驟: 爬取網(wǎng)頁、解析內(nèi)容、存儲數(shù)據(jù)
準備
先安裝爬取網(wǎng)頁需要用到的第三方庫:?requests 和 bs4
pip install requests
pip install bs4
爬取網(wǎng)頁
# coding: UTF-8
import requests
link = "http://www.santostang.com/"
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}
r = requests.get(link, headers=headers)
print(r.text)
程序運行后輸出 網(wǎng)頁的html代碼
解析網(wǎng)頁內(nèi)容
# coding: UTF-8
import requests
from bs4 import BeautifulSoup
link = "http://www.santostang.com/"
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}
r = requests.get(link, headers=headers)
soup = BeautifulSoup(r.text, "lxml")
title = soup.find("h1", class_="post-title").a.text.strip()
print(title)
獲取到了網(wǎng)頁第一篇文章的 title,輸出內(nèi)容為:
第四章 – 4.3 通過selenium 模擬瀏覽器抓取
存儲數(shù)據(jù)
# coding: UTF-8
import requests
from bs4 import BeautifulSoup
link = "http://www.santostang.com/"
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}
r = requests.get(link, headers=headers)
soup = BeautifulSoup(r.text, "lxml")
title = soup.find("h1", class_="post-title").a.text.strip()
with open('d:/title.txt', 'w') as f:
f.write(title)
運行程序后找到d:/title.txt 文件,發(fā)現(xiàn)文件的內(nèi)容就是網(wǎng)頁第一篇文章的title,即 “第四章 – 4.3 通過selenium 模擬瀏覽器抓取”
至此,講解完了python爬蟲的三個基本步驟和代碼實現(xiàn)
本文內(nèi)容到此結(jié)束,更多內(nèi)容可關(guān)注公眾號和個人微信號:
更多文章、技術(shù)交流、商務合作、聯(lián)系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號聯(lián)系: 360901061
您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元
