Python爬蟲,使用BeautifulSoup可以輕松解析頁面結果,下面是使用該方法爬取boss頁面的職位信息:包括職位名稱、薪資、地點、公司名稱、公司融資情況等信息。通過這個示例可以輕松看到BeautifulSoup的使用方法。
1、爬取boss直聘的職位信息
import requests
from bs4 import BeautifulSoup
from middlewares import get_random_proxy,get_random_agent
import time
class Boss_Spider(object):
def __init__(self, page=3):
self.proxies = []
self.verify_pro = []
self.page = page
self.headers = {}
#第一步:獲取首頁所有招聘連接
def Parse_pre(self):
base_url = 'https://www.zhipin.com/'
headers = get_random_agent()
proxy = get_random_proxy()
time.sleep(1)
resp = requests.get(base_url, headers=headers)
if resp.status_code == 200:
soup = BeautifulSoup(resp.text, 'lxml')
for job_menu in soup.find_all(class_='menu-sub'):
for li in job_menu.find_all('li'):
job_type = li.find('h4').get_text()
for job_list in li.find_all('a'):
job_sub = job_list.get_text()
job_uri = job_list['href']
for i in range(0,11):
job_url = base_url + job_uri + '?page=%d&ka=page-%d' %(i,i)
requests.get(job_url,headers=headers,proxies=proxy)
meta = {
'job_type': job_type,
'job_sub': job_sub,
}
self.Parse_index(meta=meta,url=job_url)
#爬取具體頁數據
def Parse_index(self,meta,url):
headers = get_random_agent()
proxy = get_random_proxy()
time.sleep(1)
resp = requests.get(url, headers=headers)
if resp.status_code == 200:
soup = BeautifulSoup(resp.text, 'lxml')
print(soup)
for li in soup.find(class_='job-list').find_all('li'):
print('###########')
position = li.find(class_='job-title').get_text()
salary = li.find(class_='red').get_text()
add = li.find('p').get_text()
need = li.find('p').find('em').get_text()
company_name = li.find(class_='company-text').find('a').get_text()
tag = li.find(class_='company-text').find('p')
print(position,"$$$",salary,"$$$",add,"$$$",need,"$$$",company_name,"$$$",tag)
if __name__ == '__main__':
b = Boss_Spider()
b.Parse_pre()
運行輸出結果如下:
后端開發 $$$ 15-30K $$$ 北京 朝陽區 朝外3-5年本科 $$$ $$$ 米花互動 $$$ 游戲不需要融資20-99人
###########
后端開發工程師 $$$ 35-55K $$$ 北京 朝陽區 望京經驗不限本科 $$$ $$$ 云賬戶 $$$ 移動互聯網C輪100-499人
###########
2、爬取豆瓣網圖書前250信息
import requests
from bs4 import BeautifulSoup
# 發出請求獲得HTML源碼的函數
def get_html(url):
# 偽裝成瀏覽器訪問
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}
resp = requests.get(url, headers=headers).text
return resp
# 解析頁面,獲得數據信息
def html_parse():
i = 1
# 調用函數,for循環迭代出所有頁面
for url in all_page():
# BeautifulSoup的解析
soup = BeautifulSoup(get_html(url), 'lxml')
# 書名
alldiv = soup.find_all('div', class_='pl2')
names = [a.find('a')['title'] for a in alldiv]
# 作者
allp = soup.find_all('p', class_='pl')
authors = [p.get_text() for p in allp]
# 評分
starspan = soup.find_all('span', class_='rating_nums')
scores = [s.get_text() for s in starspan]
# 簡介
sumspan = soup.find_all('span', class_='inq')
sums = [i.get_text() for i in sumspan]
for name, author, score, sum in zip(names, authors, scores, sums):
name = '書名:' + str(name) + '\n'
author = '作者:' + str(author) + '\n'
score = '評分:' + str(score) + '\n'
sum = '簡介:' + str(sum) + '\n'
data = str(i) + '\n' + name + author + score + sum
i = i + 1
# 保存數據
f.writelines(data + '=======================' + '\n')
# 獲得所有頁面的函數
def all_page():
url = 'https://book.douban.com/top250?start=200'
urllist = []
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36'}
resp = BeautifulSoup(requests.get(url, headers=headers).text, 'lxml')
i = 1
for h in resp.find('div', class_='paginator').find_all('a'):
if i > 1:
urllist.append(h['href'])
i = i + 1
urllist.append(url)
print(urllist)
return urllist
# 文件名
filename = '豆瓣圖書Top250.txt'
# 保存文件操作
f = open(filename, 'w', encoding='utf-8')
# 調用函數
html_parse()
f.close()
print('保存成功。')
3、
更多文章、技術交流、商務合作、聯系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號聯系: 360901061
您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元
