案例:爬取使用搜狗根據指定詞條搜索到的頁面數據(例如爬取詞條為‘周杰倫'的頁面數據)
import urllib.request
# 1.指定url
url = 'https://www.sogou.com/web?query=周杰倫'
'''
2.發起請求:使用urlopen函數對指定的url發起請求,
該函數返回一個響應對象,urlopen代表打開url
'''
response = urllib.request.urlopen(url=url)
# 3.獲取響應對象中的頁面數據:read函數可以獲取響應對象中存儲的頁面數據(byte類型的數據值)
page_text = response.read()
# 4.持久化存儲:將爬取的頁面數據寫入文件進行保存
with open("sougou.html","wb") as f:
f.write(page_text)
print("寫入數據成功")
f.close()
編碼錯誤
【注意】上述代碼中url存在非ascii編碼的數據,則該url無效。如果對其發起請求,則會報如下錯誤:
UnicodeEncodeError: 'ascii' codec can't encode characters in position 15-17: ordinal not in range(128)
url的特性:url不可以存在非ASCII編碼字符數據,url必須為ASCII編碼的數據值。所以我們在爬蟲代碼中編寫url時,如果url中存在非ASCII編碼的數據值,則必須對其進行ASCII編碼后,該url方可被使用。
上面的“周杰倫” 不是ASCII編碼字符數據,所以url就會變成無效的url,不符合url特性,所以報錯誤
所以必須對url中的非ascii的數據進行ascii的編碼,則該url方可被發起請求:
需要用到 urllib.parse
方法 1:使用quote函數
quote函數作用:對url中所存在的特殊字符進行ASCII的編碼,把url中的非ascii編碼的字符單獨取出來,使用quote函數進行轉碼,
轉碼之后,把轉碼的結果拼接到原有的url當中。
import urllib.request
import urllib.parse
# 1.指定url
url = 'https://www.sogou.com/web?query=周杰倫'
word = urllib.parse.quote("周杰倫")
# 查看轉碼后結果
print(word)
# %E5%91%A8%E6%9D%B0%E4%BC%A6
from urllib.request import urlopen
import urllib.parse
# 1.指定url
url = 'https://www.sogou.com/web?query='
# url的特性:url不可以存在非ASCII編碼字符數據
word = urllib.parse.quote("周杰倫")
# 將編碼后的數據值拼接回url中
url = url+word # 有效url
'''
2.發起請求:使用urlopen函數對指定的url發起請求,
該函數返回一個響應對象,urlopen代表打開url
'''
response = urlopen(url=url)
# 3.獲取響應對象中的頁面數據:read函數可以獲取響應對象中存儲的頁面數據(byte類型的數據值)
page_text = response.read()
# 4.持久化存儲:將爬取的頁面數據寫入文件進行保存
with open("周杰倫.html","wb") as f:
f.write(page_text)
print("寫入數據成功")
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。
更多文章、技術交流、商務合作、聯系博主
微信掃碼或搜索:z360901061
微信掃一掃加我為好友
QQ號聯系: 360901061
您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元

