欧美三区_成人在线免费观看视频_欧美极品少妇xxxxⅹ免费视频_a级毛片免费播放_鲁一鲁中文字幕久久_亚洲一级特黄

Python爬豆瓣電影實例

系統 1617 0

文件結構

Python爬豆瓣電影實例_第1張圖片

html_downloader.py - 下載網頁html內容

            
#!/usr/bin/python
# -*- coding: UTF-8 -*-
import urllib2

class HtmlDownloader(object):

  def downlod(self, url):
    if url is None:
      return None
    response = urllib2.urlopen(url)
    if response.getcode() != 200:
      return None
    return response.read()
          

html_outputer.py - 輸出結果到文件中

            
#!/usr/bin/python
# -*- coding: UTF-8 -*-


class HtmlOutputer(object):

  def collect_data(self, movie_data):
    if movie_data is None:
      return
    fout = open('output.html', 'a+')
    for data in movie_data:
      print data['name'] + '|', data['rate'] + '|', data['actor'], '\n'
      fout.write('%s,' % data['name'].encode('utf-8'))
      fout.write('%s,' % data['rate'])
      fout.write('%s\n' % data['actor'].encode('utf-8'))
    fout.close()
          

html_parser.py: 解析器:解析html的dom樹

            
#!/usr/bin/python
# -*- coding: UTF-8 -*-
from bs4 import BeautifulSoup


class HtmlParser(object):

  def __init__(self):
    pass

  def parser_html(self, cnt):
    if cnt is None:
      return
    soup = BeautifulSoup(cnt, 'html.parser', from_encoding='utf-8')
    # movie_name, movie_desc, movie_rate =
    return self.get_movie_names(soup)

  def get_movie_names(self, soup):
    movie_data = []
    movie_all = soup.find('div', class_='article').find_next('table').find_next_sibling('div').find_next_sibling('div').find_all('table')
    count = 1
    for movie_one in movie_all:
      movie_data.append(self.get_movie_name(movie_one))
      # if count > 2:
      #   break
      count += 1
    return movie_data

  def get_movie_name(self, cnt):
    info = {}
    soup = BeautifulSoup(str(cnt), 'html.parser', from_encoding='utf-8')
    movie_one = soup.find('tr', class_='item').find_next('td').find_next_sibling('td').find('div', class_='pl2')
    info['name'] = movie_one.find('a').get_text().replace("\n", "").replace(" ", "")
    info['actor'] = movie_one.find('p', class_='pl').get_text().replace("\n", "").replace(" ", "")
    info['rate'] = movie_one.find('div', class_='star clearfix').find('span', class_='rating_nums').get_text()
    return info
          

spider_main.py - 主函數

            
#!/usr/bin/python
# -*- coding: UTF-8 -*-
import html_parser, html_outputer, html_downloader


class SpiderMain(object):

  def __init__(self):
    self.parser = html_parser.HtmlParser()
    self.outputer = html_outputer.HtmlOutputer()
    self.downloader = html_downloader.HtmlDownloader()

  def craw(self, url):
    html_cnt = self.downloader.downlod(url)
    movie_data = self.parser.parser_html(html_cnt)
    self.outputer.collect_data(movie_data)


if __name__ == '__main__':
  url = 'https://movie.douban.com/tag/2017?start=100&type=T'
  spider = SpiderMain()
  spider.craw(url)
          

綜述

其實就是使用了urllib2和BeautifulSoup庫,沒啥好說的,你也可以直接改url,然后更改html_parser.py文件來滿足你自己的爬蟲需求。當前也可以更改html_outputer.py來定義保存格式,目前是csv。


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 久久亚洲成人网 | 欧美一区在线观看视频 | 久久亚洲国产精品无码一区 | 亚洲美女精品 | 99影视在线视频免费观看 | 国产偷国产偷亚洲高清在线 | 欧美日韩综合一区 | 精品国产免费久久久久久 | 久久精品欧美一区二区三区不卡 | 尤物国产在线精品福利一区 | 精品欧美一区二区三区在线 | 久久免费看少妇高潮A片特黄多 | 99在线精品免费视频九九视 | 全免费A敌肛交毛片免费 | 久久精品欧美一区二区三区不卡 | 丁香六月综合 | 久久一er精这里有精品 | 中文字幕av免费 | 亚洲碰碰 | 影音先锋中文字幕一区 | 成人免费视频网址 | 国产精品成人观看视频国产 | 天天干天天草 | 美女狠狠干| www.日日操 | 国产三级在线精品男人的天堂 | 日本三级2020| 久久亚洲精品国产亚洲老地址 | 性色av一区二区三区 | 毛片免费在线观看 | 看毛片免费 | 日韩av在线中文字幕 | 碰碰碰精品视频在线观看 | 成人亚洲一区 | 欧美一区二区三区精品 | 国产成人综合日韩精品婷婷九月 | 大香伊蕉国产短视频69 | 东方亚洲东方欧美色二区 | 欧美吹潮| 国产亚洲综合一区二区在线 | 毛片1毛片2毛片3毛片4 |