国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Spark單機偽分布式環(huán)境搭建、完全分布式環(huán)境搭建、Spark-on-yarn模式搭建

這篇具有很好參考價值的文章主要介紹了Spark單機偽分布式環(huán)境搭建、完全分布式環(huán)境搭建、Spark-on-yarn模式搭建。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

搭建Spark需要先配置好scala環(huán)境。三種Spark環(huán)境搭建互不關(guān)聯(lián),都是從零開始搭建。

如果將文章中的配置文件修改內(nèi)容復制粘貼的話,所有配置文件添加的內(nèi)容后面的注釋記得刪除,可能會報錯。保險一點刪除最好。

Scala環(huán)境搭建


  1. 上傳安裝包解壓并重命名

rz上傳

如果沒有安裝rz可以使用命令安裝:

yum install -y lrzsz

這里我將scala解壓到/opt/module目錄下:

tar -zxvf /opt/tars/scala-2.12.0.tgz -C /opt/module

重命名:

mv scala-2.12.0 scala

2、vi /etc/profile

在最后添加:

export SCALA_HOME=/opt/module/scala

export PATH=$PATH:$SCALA_HOME/bin

刷新使文件生效:

source /etc/profile

搭建單機偽分布式環(huán)境(單機)


spark單機偽分布是在一臺機器上既有Master,又有Worker進程。spark單機偽分布式環(huán)境可以在hadoop偽分布式的基礎(chǔ)上進行搭建

  1. 上傳安裝包解壓并重命名

rz上傳

解壓:

tar -zxvf /opt/tars/spark-3.1.1-bin-hadoop3.2.tgz -C /opt/module

重命名:

mv spark-3.1.1-bin-hadoop3.2 spark

  1. 進入spark/conf,將spark-env.sh.template 重命名為spark-env.sh

cd /opt/module/spark/conf

mv spark-env.sh.template spark-env.sh

  1. 打開spark-env.sh:

vi spark-env.sh

在末尾添加:

export JAVA_HOME=/opt/module/jdk # java的安裝路徑
export HADOOP_CONF_DIR=/opt/module/hadoop/etc/hadoop # hadoop的安裝路徑
export HADOOP_HOME=/opt/module/hadoop # hadoop配置文件的路徑
export SPARK_MASTER_IP=master # spark主節(jié)點的ip或機器名
export SPARK_LOCAL_IP=master # spark本地的ip或機器名

4、vi /etc/profile

export SPARK_HOME=/opt/module/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

刷新:

source /etc/profile

5、切換到/sbin目錄下,啟動集群:

cd /opt/module/spark/sbin

./start-all.sh

6、通過jps查看進程,既有Master進程又有Worker進程

spark配置yarn模式,Spark,大數(shù)據(jù)平臺組件搭建,hadoop,大數(shù)據(jù),Spark,scala,環(huán)境搭建,Powered by 金山文檔

搭建完全分布式環(huán)境


搭建Spark完全分布式環(huán)境的前提是已經(jīng)搭建好了hadoop完全分布式,如果沒有搭建hadoop完全分布式且不會搭建,可以前往博主主頁尋找hadoop完全分布式搭建的文章進行搭建。

博主的三臺機器名:主節(jié)點:master,從節(jié)點:slave1,slave2

1、上傳安裝包解壓并重命名(前面已經(jīng)講解過,就不多說了)

2、進入spark/conf,將spark-env.sh.template 重命名 spark-env.sh

cd /opt/module/spark/conf

mv spark-env.sh.template spark-env.sh

3、vi spark-env.sh,在末尾添加:

export JAVA_HOME=/opt/module/jdk # java的安裝路徑
export HADOOP_CONF_DIR=/opt/module/hadoop/etc/hadoop # hadoop配置文件的路徑
export SPARK_MASTER_IP=master # spark主節(jié)點的ip或機器名
export SPARK_MASTER_PORT=7077 # spark主節(jié)點的端口號
export SPARK_WORKER_MEMORY=512m # Worker節(jié)點能給予Executors的內(nèi)存數(shù)
export SPARK_WORKER_CORES=1 # 每臺節(jié)點機器使用核數(shù)
export SPARK_EXECUTOR_MEMORY=512m # 每個Executors的內(nèi)存
export SPARK_EXCUTOR_CORES=1 # Executors的核數(shù)
export SPARK_WORKER_INSTANCES=1 # 每個節(jié)點的Worker進程數(shù)

4、spark2.x是配置slaves文件,將slaves.template重命名為slaves

mv slaves.template slaves

添加三個節(jié)點的機器名(如果只要兩個work的話可以不寫master):

vi slaves

master

slave1

slave2

spark3.x是配置works文件:

mv works.template works

vi works

master

slave1

slave2

5、配置spark-default.conf文件,將spark-defaults.conf.template重命名為spark-default.conf:

mv spark-defaults.conf.template spark-default.conf

修改配置文件:

vi /opt/module/spark/conf/spark-default.conf

spark.master spark://master:7077 <!--spark主節(jié)點所在機器及端口,默認寫法是spark://-->
spark.eventLog.enabled true <!--是否打開任務(wù)日志功能,默認為false,即打不開-->
spark.eventLog.dir hdfs://master:8020/spark-logs <!--任務(wù)日志默認存放位置,配置一個HDFS路徑即可-->
spark.history.fs.logDirectory hdfs://master:8020/spark-logs <!--存放歷史應(yīng)用日志文件的目錄-->

注意:8020是HDFS的連接端口,需要填自己的,可以去hadoop的webui查看,hadoop2.x端口是50070,hadoop3.x端口是9870

6、分發(fā):

scp -r /opt/module/spark slave1:/opt/module

scp -r /opt/module/spark slave2:/opt/module

7、創(chuàng)建spark-logs目錄

hdfs dfs -mkdir /spark-logs

8、vi /etc/profile

export SPARK_HOME=/opt/module/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

刷新:

source /etc/profile

9、分發(fā):

scp -r /etc/profile slave1:/etc

scp -r /etc/profile slave2:/etc

刷新使文件生效:

source /etc/profile

進入Spark的/sbin目錄下,啟動Spark獨立集群

cd /opt/module/spark/sbin

sbin/start-all.sh

啟動歷史服務(wù)器(可以不啟動,不啟動則沒有HistoryServer進程)

sbin/start-history-server.sh

通過jps查看進程:

master節(jié)點:

spark配置yarn模式,Spark,大數(shù)據(jù)平臺組件搭建,hadoop,大數(shù)據(jù),Spark,scala,環(huán)境搭建,Powered by 金山文檔

slave1/slave2節(jié)點:

spark配置yarn模式,Spark,大數(shù)據(jù)平臺組件搭建,hadoop,大數(shù)據(jù),Spark,scala,環(huán)境搭建,Powered by 金山文檔
spark配置yarn模式,Spark,大數(shù)據(jù)平臺組件搭建,hadoop,大數(shù)據(jù),Spark,scala,環(huán)境搭建,Powered by 金山文檔

完成以上步驟,Spark環(huán)境則搭建完成。

可以通過http://master:8080訪問主節(jié)點,可以看到webui的監(jiān)控畫面

http://master:18080可以看到歷史任務(wù)

啟動Spark交互頁面:

bin/spark-shell

啟動YARN客戶端模式:bin/spark-shell --master yarn-client

啟動YARN集群模式:bin/spark-shell --master yarn-cluster

Spark on Yarn模式


1、解壓并重命名:

tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz -C /opt/module

cd /opt/module

mv spark-3.0.0-bin-hadoop3.2 spark-yarn

2、修改hadoop配置文件yarn-site.xml并分發(fā)

vi /opt/module/hadoop/etc/hadoop/yarn-site.xml

<!--是否啟動一個線程檢查每個任務(wù)正使用的物理內(nèi)存量,
如果任務(wù)超出分配值,則直接將其殺掉,默認是 true -->
<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>
<!--是否啟動一個線程檢查每個任務(wù)正使用的虛擬內(nèi)存量,
如果任務(wù)超出分配值,則直接將其殺掉,默認是 true -->
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>

分發(fā):

scp -r /opt/module/hadoop/etc/hadoop/yarn-site.xml slave1:/opt/module/hadoop/etc/hadoop/

scp -r /opt/module/hadoop/etc/hadoop/yarn-site.xml slave2:/opt/module/hadoop/etc/hadoop/

3、修改spark-yarn/conf/spark-env.sh配置文件:

vi /opt/module/spark-yarn/conf/spark-env.sh

export JAVA_HOME=/opt/module/jdk
YARN_CONF_DIR=/opt/module/hadoop/etc/hadoop

4、vi /etc/profile

export SPARK_HOME=/opt/module/spark-yarn
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

刷新:

source /etc/profile

5、分發(fā):

scp -r /etc/profile slave1:/etc

scp -r /etc/profile slave2:/etc

刷新使文件生效:

source /etc/profile

完成以上步驟,Spark-on-yarn便搭建完成了

時間同步

在跑任務(wù)時可能會報錯:

Note: System times on machines may be out of sync. Check system time and time zones.

這個是因為三臺機子時間不同步的原因

安裝NTP服務(wù)(三個機子都要):

yum install ntp

手動同步時間(三個機子都要):

ntpdate -u ntp1.aliyun.com文章來源地址http://www.zghlxwxcb.cn/news/detail-739414.html

到了這里,關(guān)于Spark單機偽分布式環(huán)境搭建、完全分布式環(huán)境搭建、Spark-on-yarn模式搭建的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 大數(shù)據(jù)開源框架環(huán)境搭建(四)——HDFS完全分布式集群的安裝部署

    大數(shù)據(jù)開源框架環(huán)境搭建(四)——HDFS完全分布式集群的安裝部署

    前言:本實驗的所有路徑均為本人計算機路徑,有些路徑需要看自己的,跟著我的一起做最好。普通用戶下大部分命令需要加sudo,root模式下不用。如果怕麻煩,直接在root用戶下操作。 目錄 實驗環(huán)境: 實驗步驟: 一、配置NAT網(wǎng)絡(luò)?,分配靜態(tài)IP地址 1.打開VMware,選擇編輯,

    2024年02月05日
    瀏覽(37)
  • 大數(shù)據(jù)開源框架環(huán)境搭建(五)——Hbase完全分布式集群的安裝部署

    大數(shù)據(jù)開源框架環(huán)境搭建(五)——Hbase完全分布式集群的安裝部署

    目錄 實驗環(huán)境: 實驗步驟: 〇、Zookeeper安裝配置: 一、安裝前注意事項 二、HBase安裝 ?三、Hbase集群配置 1.配置hbase-env.sh文件,位于Hbase安裝目錄/conf/ 2.配置hbase-site.xml文件,位于Hbase安裝目錄/conf/ 3.配置regionservers 4.新建 backup-masters文件,添加備份HMaster機器名 四、將配置好

    2024年02月08日
    瀏覽(31)
  • Hadoop3.x完全分布式環(huán)境搭建Zookeeper和Hbase

    Hadoop3.x完全分布式環(huán)境搭建Zookeeper和Hbase

    集群規(guī)劃 IP地址 主機名 集群身份 192.168.138.100 hadoop00 主節(jié)點 192.168.138.101 hadoop01 從節(jié)點 192.168.138.102 hadoop02 從節(jié)點 Hadoop完全分布式環(huán)境搭建請移步傳送門 先在主節(jié)點上進行安裝和配置,隨后分發(fā)到各個從節(jié)點上。 1.1 解壓zookeeper并添加環(huán)境變量 1)解壓zookeeper到/usr/local文件夾

    2024年02月04日
    瀏覽(29)
  • Zookeeper+Hadoop+Spark+Flink+Kafka+Hbase+Hive 完全分布式高可用集群搭建(保姆級超詳細含圖文)

    Zookeeper+Hadoop+Spark+Flink+Kafka+Hbase+Hive 完全分布式高可用集群搭建(保姆級超詳細含圖文)

    說明: 本篇將詳細介紹用二進制安裝包部署hadoop等組件,注意事項,各組件的使用,常用的一些命令,以及在部署中遇到的問題解決思路等等,都將詳細介紹。 ip hostname 192.168.1.11 node1 192.168.1.12 node2 192.168.1.13 node3 1.2.1系統(tǒng)版本 1.2.2內(nèi)存建議最少4g、2cpu、50G以上的磁盤容量 本次

    2024年02月12日
    瀏覽(37)
  • spark 基于物理機centos7環(huán)境搭建分布式集群

    非生產(chǎn)環(huán)境,就使用一個新一點的版本,提前先踩踩坑,版本的選型真是一個頭疼的問題,先看一下apache的官網(wǎng)的測試圖: 偽分布式看這里: 配置之前:若是用偽分布式時,在本機必須生成key-gen 與ssh-copy-id到本機,且hosts中必須加入127.0.0.1 ?本機名并關(guān)閉防火墻這幾步才可

    2024年02月03日
    瀏覽(26)
  • Hadoop(偽分布式)+Spark(local模式)搭建Hadoop和Spark組合環(huán)境

    Hadoop(偽分布式)+Spark(local模式)搭建Hadoop和Spark組合環(huán)境

    環(huán)境 使用 Ubuntu 14.04 64位 作為系統(tǒng)環(huán)境(Ubuntu 12.04,Ubuntu16.04 也行,32位、64位均可),請自行安裝系統(tǒng)。 Hadoop版本 : Hadoop 2.7.4 創(chuàng)建hadoop用戶 如果你安裝 Ubuntu 的時候不是用的 \\\"hadoop\\\" 用戶,那么需要增加一個名為 hadoop 的用戶。 首先按 ctrl+alt+t 打開終端窗口,輸入如下命令創(chuàng)

    2023年04月08日
    瀏覽(39)
  • 【頭歌實訓】Spark 完全分布式的安裝和部署

    掌握 Standalone 分布式集群搭建。 我們已經(jīng)掌握了 Spark 單機版安裝,那么分布式集群怎么搭建呢? 接下來我們學習 Standalone 分布式集群搭建。 課程視頻 如果你需要在本地配置 Spark 完全分布式環(huán)境,可以通過查看課程視頻來學習。 課程視頻《克隆虛擬機與配置網(wǎng)絡(luò)》 課程視

    2024年02月04日
    瀏覽(27)
  • 【頭歌實訓】Spark 完全分布式的安裝和部署(新)

    【頭歌實訓】Spark 完全分布式的安裝和部署(新)

    第1關(guān): Standalone 分布式集群搭建 任務(wù)描述 掌握 Standalone 分布式集群搭建。 相關(guān)知識 我們已經(jīng)掌握了 Spark 單機版安裝,那么分布式集群怎么搭建呢? 接下來我們學習 Standalone 分布式集群搭建。 課程視頻 如果你需要在本地配置 Spark 完全分布式環(huán)境,可以通過查看課程視頻來

    2024年02月03日
    瀏覽(132)
  • 搭建完全分布式Hadoop

    搭建完全分布式Hadoop

    登錄三個虛擬機 執(zhí)行命令: vim /etc/hosts 1、上傳安裝包 上傳hadoop安裝包 查看hadoop安裝包 2、解壓縮安裝包 執(zhí)行命令: tar -zxvf hadoop-3.3.4.tar.gz -C /usr/local 查看解壓后的目錄 3、配置環(huán)境變量 執(zhí)行命令: vim /etc/profile 存盤退出,執(zhí)行命令: source /etc/profile ,讓配置生效 查看had

    2024年02月04日
    瀏覽(26)
  • Hadoop完全分布式搭建

    Hadoop完全分布式搭建

    1.下載VM 2.下載Centos鏡像 3.下載hadoop 4.下載FinalShell 5.下載jdk文件 ?6.下載hive,數(shù)據(jù)倉庫學習大數(shù)據(jù)專業(yè)的用的到 ? ? 注:開啟虛擬機把鼠標放入屏幕點擊后消失,使用鍵盤上下鍵進行選擇 ? 注:點擊之后,什么都不動,再點擊完成(因為它自動幫我們分區(qū)了) 注:我們配置

    2024年02月04日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包