欧美三区_成人在线免费观看视频_欧美极品少妇xxxxⅹ免费视频_a级毛片免费播放_鲁一鲁中文字幕久久_亚洲一级特黄

Python搭建Spark分布式集群環境

系統 2286 0

前言

Apache Spark 是一個新興的大數據處理通用引擎,提供了分布式的內存抽象。Spark 最大的特點就是快,可比 Hadoop MapReduce 的處理速度快 100 倍。本文沒有使用一臺電腦上構建多個虛擬機的方法來模擬集群,而是使用三臺電腦來搭建一個小型分布式集群環境安裝。

本教程采用Spark2.0以上版本(比如Spark2.0.2、Spark2.1.0等)搭建集群,同樣適用于搭建Spark1.6.2集群。

安裝Hadoop并搭建好Hadoop集群環境

Spark分布式集群的安裝環境,需要事先配置好Hadoop的分布式集群環境。

安裝Spark

這里采用3臺機器(節點)作為實例來演示如何搭建Spark集群,其中1臺機器(節點)作為Master節點,另外兩臺機器(節點)作為Slave節點(即作為Worker節點),主機名分別為Slave01和Slave02。

在Master節點機器上,訪問Spark官方下載地址,按照如下圖下載。

Python搭建Spark分布式集群環境_第1張圖片

下載完成后,執行如下命令:

            
sudo tar -zxf ~/下載/spark-2.0.2-bin-without-hadoop.tgz -C /usr/local/
cd /usr/local
sudo mv ./spark-2.0.2-bin-without-hadoop/ ./spark
sudo chown -R hadoop ./spark
          

配置環境變量

在Mster節點主機的終端中執行如下命令:

            
vim ~/.bashrc
          

在.bashrc添加如下配置:

            
export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
          

執行如下命令使得配置立即生效:

            
source ~/.bashrc
          

Spark配置

在Master節點主機上進行如下操作:

配置slaves文件

將 slaves.template 拷貝到 slaves

            
cd /usr/local/spark/
cp ./conf/slaves.template ./conf/slaves
          

slaves文件設置Worker節點。編輯slaves內容,把默認內容localhost替換成如下內容:

            
slave01
slave02
          

配置spark-env.sh文件

將 spark-env.sh.template 拷貝到 spark-env.sh

            
cp ./conf/spark-env.sh.template ./conf/spark-env.sh
          

編輯spark-env.sh,添加如下內容:

            
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export SPARK_MASTER_IP=192.168.1.104
          

SPARK_MASTER_IP 指定 Spark 集群 Master 節點的 IP 地址;

配置好后,將Master主機上的/usr/local/spark文件夾復制到各個節點上。在Master主機上執行如下命令:

            
cd /usr/local/
tar -zcf ~/spark.master.tar.gz ./spark
cd ~
scp ./spark.master.tar.gz slave01:/home/hadoop
scp ./spark.master.tar.gz slave02:/home/hadoop
          

在slave01,slave02節點上分別執行下面同樣的操作:

            
sudo rm -rf /usr/local/spark/
sudo tar -zxf ~/spark.master.tar.gz -C /usr/local
sudo chown -R hadoop /usr/local/spark
          

啟動Spark集群

啟動Hadoop集群

啟動Spark集群前,要先啟動Hadoop集群。在Master節點主機上運行如下命令:

            
cd /usr/local/hadoop/
sbin/start-all.sh
          

啟動Spark集群

1.啟動Master節點

在Master節點主機上運行如下命令:

            
cd /usr/local/spark/
sbin/start-master.sh
          

在Master節點上運行jps命令,可以看到多了個Master進程:

            
15093 Jps
14343 SecondaryNameNode
14121 NameNode
14891 Master
14509 ResourceManager
          

2.啟動所有Slave節點

在Master節點主機上運行如下命令:

            
sbin/start-slaves.sh
          

分別在slave01、slave02節點上運行jps命令,可以看到多了個Worker進程

            
37553 DataNode
37684 NodeManager
37876 Worker
37924 Jps
          

3.在瀏覽器上查看Spark獨立集群管理器的集群信息

在master主機上打開瀏覽器,訪問http://master:8080,如下圖:

Python搭建Spark分布式集群環境_第2張圖片

關閉Spark集群

1.關閉Master節點

            
sbin/stop-master.sh
          

2.關閉Worker節點

            
sbin/stop-slaves.sh
          

3.關閉Hadoop集群

            
cd /usr/local/hadoop/
sbin/stop-all.sh
          

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 欧美一级片在线视频 | 超碰免费观看 | 可米影院 | 黄色国产精品 | 精品96久久久久久中文字幕无 | 午夜精品毛片 | 久久精品亚洲欧美日韩精品中文字幕 | 成人黄色在线观看视频 | 91久色视频| 精品欧美一区二区三区 | 亚洲黄色一级大片 | 青娱乐成人 | 国产精品中文 | 久久久成 | 亚洲福利| 成人免费网视频 | 日本wwwwwwwww| 国产精品密蕾丝视频下载 | 日本不卡在线播放 | 亚洲黄网站wwwwww | www日韩免费高清视频 | 性xxxx免费观看视频 | 亚洲一区二区三区四区精品 | 91精品国产综合久久国产大片 | 日日摸天天碰中文字幕 | 中文字幕第页 | 欧美第一页草草影院 | 国产亚洲精彩视频 | 香港三级午夜理伦三级 | 成人精品一区二区三区校园激情 | 午夜手机福利 | 久久免费精品视频在线观看 | 一级做性色a爰片久久毛片 亚洲午夜精品久久久久久app | 麻豆免费永久网址入口网址 | 91偷拍精品一区二区三区 | 天天做天天爱夜夜爽女人爽宅 | 久久精品国产999大香线焦 | 天天摸天天爽天天澡视频 | 久久成人综合 | 成人毛片视频在线播放 | 91网站在线观看视频 |