欧美三区_成人在线免费观看视频_欧美极品少妇xxxxⅹ免费视频_a级毛片免费播放_鲁一鲁中文字幕久久_亚洲一级特黄

python多線程+代理池爬取天天基金網、股票數據過程解析

系統 2090 0

簡介

提到爬蟲,大部分人都會想到使用Scrapy工具,但是僅僅停留在會使用的階段。為了增加對爬蟲機制的理解,我們可以手動實現多線程的爬蟲過程,同時,引入IP代理池進行基本的反爬操作。

本次使用天天基金網進行爬蟲,該網站具有反爬機制,同時數量足夠大,多線程效果較為明顯。

技術路線

  • IP代理池
  • 多線程
  • 爬蟲與反爬

編寫思路

首先,開始分析天天基金網的一些數據。經過抓包分析,可知:
./fundcode_search.js包含所有基金的數據,同時,該地址具有反爬機制,多次訪問將會失敗的情況。

同時,經過分析可知某只基金的相關信息地址為:fundgz.1234567.com.cn/js/ + 基金代碼 + .js

分析完天天基金網的數據后,搭建IP代理池,用于反爬作用。點擊這里搭建代理池,由于該作者提供了一個例子,所以本代碼里面直接使用的是作者提供的接口。如果你需要更快速的獲取到普匿IP,則可以自行搭建一個本地IP代理池。

            
  # 返回一個可用代理,格式為ip:端口
  # 該接口直接調用github代理池項目給的例子,故不保證該接口實時可用
  # 建議自己搭建一個本地代理池,這樣獲取代理的速度更快
  # 代理池搭建github地址https://github.com/1again/ProxyPool
  # 搭建完畢后,把下方的proxy.1again.cc改成你的your_server_ip,本地搭建的話可以寫成127.0.0.1或者localhost
  def get_proxy():
    data_json = requests.get("http://proxy.1again.cc:35050/api/v1/proxy/?type=2").text
    data = json.loads(data_json)
    return data['data']['proxy']
          

搭建完IP代理池后,我們開始著手多線程爬取數據的工作。一旦使用多線程,則需要考慮到數據的讀寫順序問題。這里使用python中的隊列queue進行存儲基金代碼,不同線程分別從這個queue中獲取基金代碼,并訪問指定基金的數據。由于queue的讀取和寫入是阻塞的,所以可以確保該過程不會出現讀取重復和讀取丟失基金代碼的情況。

            
  # 將所有基金代碼放入先進先出FIFO隊列中
  # 隊列的寫入和讀取都是阻塞的,故在多線程情況下不會亂
  # 在不使用框架的前提下,引入多線程,提高爬取效率
  # 創建一個隊列
  fund_code_queue = queue.Queue(len(fund_code_list))
  # 寫入基金代碼數據到隊列
  for i in range(len(fund_code_list)):
    #fund_code_list[i]也是list類型,其中該list中的第0個元素存放基金代碼
    fund_code_queue.put(fund_code_list[i][0])
          

現在,開始編寫如何獲取指定基金的代碼。首先,該函數必須先判斷queue是否為空,當不為空的時候才可進行獲取基金數據。同時,當發現訪問失敗時,則必須將我們剛剛取出的基金代碼重新放回到隊列中去,這樣才不會導致基金代碼丟失。

            
  # 獲取基金數據
  def get_fund_data():

    # 當隊列不為空時
    while (not fund_code_queue.empty()):

      # 從隊列讀取一個基金代碼
      # 讀取是阻塞操作
      fund_code = fund_code_queue.get()

      # 獲取一個代理,格式為ip:端口
      proxy = get_proxy()

      # 獲取一個隨機user_agent和Referer
      header = {'User-Agent': random.choice(user_agent_list),
           'Referer': random.choice(referer_list)
      }
      try:
        req = requests.get("http://fundgz.1234567.com.cn/js/" + str(fund_code) + ".js", proxies={"http": proxy}, timeout=3, headers=header)
      except Exception:
        # 訪問失敗了,所以要把我們剛才取出的數據再放回去隊列中
        fund_code_queue.put(fund_code)
        print("訪問失敗,嘗試使用其他代理訪問")
          

當訪問成功時,則說明能夠成功獲得基金的相關數據。當我們在將這些數據存入到一個.csv文件中,會發現數據出現錯誤。這是由于多線程導致,由于多個線程同時對該文件進行寫入,導致出錯。所以需要引入一個線程鎖,確保每次只有一個線程寫入。

            
  # 申請獲取鎖,此過程為阻塞等待狀態,直到獲取鎖完畢
  mutex_lock.acquire()
  # 追加數據寫入csv文件,若文件不存在則自動創建
  with open('./fund_data.csv', 'a+', encoding='utf-8') as csv_file:
    csv_writer = csv.writer(csv_file)
    data_list = [x for x in data_dict.values()]
    csv_writer.writerow(data_list)
  # 釋放鎖
  mutex_lock.release()
          

至此,大部分工作已經完成了。為了更好地實現偽裝效果,我們對header進行隨機選擇。

            
  # user_agent列表
  user_agent_list = [
    'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.71 Safari/537.1 LBBROWSER',
    'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E)',
    'Mozilla/5.0 (Windows NT 5.1) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.84 Safari/535.11 SE 2.X MetaSr 1.0',
    'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Maxthon/4.4.3.4000 Chrome/30.0.1599.101 Safari/537.36',
    'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.122 UBrowser/4.0.3214.0 Safari/537.36'
  ]
  # referer列表
  referer_list = [
    'http://fund.eastmoney.com/110022.html',
    'http://fund.eastmoney.com/110023.html',
    'http://fund.eastmoney.com/110024.html',
    'http://fund.eastmoney.com/110025.html'
  ]
  # 獲取一個隨機user_agent和Referer
  header = {'User-Agent': random.choice(user_agent_list),
       'Referer': random.choice(referer_list)
  }
          

最后,在main中,開啟線程即可。

            
  # 創建一個線程鎖,防止多線程寫入文件時發生錯亂
  mutex_lock = threading.Lock()
  # 線程數為50,在一定范圍內,線程數越多,速度越快
  for i in range(50):
    t = threading.Thread(target=get_fund_data,name='LoopThread'+str(i))
    t.start()
          

通過對多線程和IP代理池的實踐操作,能夠更加深入了解多線程和爬蟲的工作原理。當你在使用一些爬蟲框架的時候,就能夠做到快速定位錯誤并解決錯誤。

數據格式

000056,建信消費升級混合,2019-03-26,1.7740,1.7914,0.98,2019-03-27 15:00

000031,華夏復興混合,2019-03-26,1.5650,1.5709,0.38,2019-03-27 15:00

000048,華夏雙債增強債券C,2019-03-26,1.2230,1.2236,0.05,2019-03-27 15:00

000008,嘉實中證500ETF聯接A,2019-03-26,1.4417,1.4552,0.93,2019-03-27 15:00

000024,大摩雙利增強債券A,2019-03-26,1.1670,1.1674,0.04,2019-03-27 15:00

000054,鵬華雙債增利債券,2019-03-26,1.1697,1.1693,-0.03,2019-03-27 15:00

000016,華夏純債債券C,2019-03-26,1.1790,1.1793,0.03,2019-03-27 15:00

功能截圖

配置說明

            
# 確保安裝以下庫,如果沒有,請在python3環境下執行pip install 模塊名
  import requests
  import random
  import re
  import queue
  import threading
  import csv
  import json
          

補充

完整版源代碼存放在github上,有需要的可以下載

項目持續更新,歡迎您star本項目

,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: A片A三女人久久7777 | 国产福利在线免费 | 免费观看av网站 | 日日夜夜爱 | 久久亚洲国产精品无码一区 | 国产精品成人免费一区久久羞羞 | 亚洲精品中文字幕乱码一区二区 | 91茄子在线观看 | 亚洲国产精品久久久久久网站 | 久久高清 | 日本一区二区三区精品国产 | 亚洲欧美日韩在线中文一 | 极品美女aⅴ高清在线观看 一级片片 | 亚洲12p| 亚洲精品网站日本xxxxxxx | 毛片短视频 | 国产精品毛片无码 | 男女交配视频网站 | 国产精品三级国语在线看 | 且试天下修久容 | 成人在线视频网站 | 中国大陆高清aⅴ毛片 | 一级黄片毛片 | 久草在线观看首页 | 毛片成人网 | 久草热在线 | 日韩视频在线观看 | 中文字幕 国产精品 | 一区免费看| 日本免费a视频 | 毛片激情永久免费 | 欧美日韩福利视频 | 国产欧美日韩精品一区二 | 国变精品美女久久久久av爽 | 欧美高清一区二区三区欧美 | 精品久久国产 | 久久国产一区 | 国产精品美女视频 | 午夜影院在线观看 | 中文字幕视频一区 | 国产毛片久久精品 |