這里使用requests庫爬取網頁要比urllib庫方便
用finditer查詢
import requests
import re
url='https://www.flyai.com/' # 帶爬取的網頁
html=requests.get(url).text # text為轉化為str數據
pat='(\w+@\w+.com)|(\d{11})' # 正則模式
res=re.finditer(pat,html) # finditer返回的是一個迭代器
for i in res: # i 是一個Match對象
print(i.group()) # group()為輸出所有組
import requests
import re
url='https://www.flyai.com/'
html=requests.get(url).text
pat='(?:[a-zA-Z_-]+@[a-zA-Z_-]+.com)|(?:\d{11})'
res=re.findall(pat,html) # 返回的結果在一個列表中
print(res)
import requests
import re
url='https://www.sina.com.cn/'
html=requests.get(url).text
pat='[a-zA-Z_-]+@[a-zA-Z_-]+.\w*'
res=set(re.findall(pat,html))
print(res)
更多文章、技術交流、商務合作、聯系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號聯系: 360901061
您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元
