国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Spark on Yarn集群模式搭建及測試

這篇具有很好參考價值的文章主要介紹了Spark on Yarn集群模式搭建及測試。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

????【大數(shù)據(jù)學(xué)習(xí)記錄篇】-持續(xù)更新中~????


點擊傳送:大數(shù)據(jù)學(xué)習(xí)專欄

持續(xù)更新中,感謝各位前輩朋友們支持學(xué)習(xí)~

1.Spark on Yarn集群模式介紹

Apache Spark是一個快速的、通用的大數(shù)據(jù)處理框架,它支持在各種環(huán)境中進行分布式數(shù)據(jù)處理和分析。在Yarn集群模式下搭建Spark環(huán)境可以充分利用Hadoop的資源管理和調(diào)度能力。

本文將介紹如何搭建Spark on Yarn集群模式環(huán)境,步驟詳細(xì),代碼量大,準(zhǔn)備發(fā)車~
Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

2.搭建環(huán)境準(zhǔn)備

本次用到的環(huán)境有:
Java 1.8.0_191
Spark-2.2.0-bin-hadoop2.7
Hadoop 2.7.4
Oracle Linux 7.4

3.搭建步驟

1.解壓Spark壓縮文件至/opt目錄下

tar -zxvf  ~/experiment/file/spark-2.2.0-bin-hadoop2.7.tgz  -C  /opt

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux
2.修改解壓后為文件名為spark

mv /opt/spark-2.2.0-bin-hadoop2.7 /opt/spark

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

3.復(fù)制spark配置文件,首先在主節(jié)點(Master)上,進入Spark安裝目錄下的配置文件目錄{ $SPARK_HOME/conf },并復(fù)制spark-env.sh配置文件:

cd /opt/spark/conf
cp spark-env.sh.template spark-env.sh

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

4.Vim編輯器打開spark配置文件

vim spark-env.sh

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

5.按鍵Shift+g鍵定位到最后一行,按鍵 i 切換到輸入模式下,添加如下代碼,注意:“=”附近無空格:

export JAVA_HOME=/usr/lib/java-1.8
export SPARK_MASTER_HOST=master
export SPARK_MASTER_PORT=7077

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

6.復(fù)制一份spark的slaves配置文件

cp slaves.template slaves

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

7.修改spark的slaves配置文件

vim slaves

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

8.每一行添加工作節(jié)點(Worker)名稱,按鍵Shift+g鍵定位到最后一行,按鍵 i 切換到輸入模式下,添加如下代碼

slave1
slave2

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

按鍵Esc,按鍵:wq保存退出
9.復(fù)制spark-defaults.conf

cp spark-defaults.conf.template spark-defaults.conf

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

10.通過遠(yuǎn)程scp指令將Master主節(jié)點的Spark安裝包分發(fā)至各個從節(jié)點,即slave1和slave2節(jié)點

scp -r /opt/spark/ root@slave1:/opt/
scp -r /opt/spark/ root@slave2:/opt/

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux
Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

11.配置環(huán)境變量:分別在master,slave1和slave2節(jié)點上配置環(huán)境變量,修改【/etc/profile】,在文件尾部追加以下內(nèi)容

vim /etc/profile

按鍵Shift+g鍵定位到最后一行,按鍵 i 切換到輸入模式下,添加如下代碼

#spark install
export SPARK_HOME=/opt/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

主節(jié)點(master)上執(zhí)行截圖,如下:
Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux
Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

從節(jié)點1(Slave1)上執(zhí)行截圖,如下:
Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux
Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

從節(jié)點2(Slave2)上執(zhí)行截圖,如下:
Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux
Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

12.按鍵Esc,按鍵:wq保存退出
13.分別在Slave1和Slave2上,刷新配置文件

source /etc/profile

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux
Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

14.綁定Hadoop配置目錄(在主節(jié)點),Spark搭建On YARN模式,只需修改spark-env.sh配置文件的HADOOP_CONF_DIR屬性,指向Hadoop安裝目錄中配置文件目錄,具體操作如下

vim /opt/spark/conf/spark-env.sh
export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

15.按鍵Esc,按鍵:wq保存退出
16.在主節(jié)點修改完配置文件后,一定要將【/opt/spark/conf/spark-env.sh】文件同步分發(fā)至所有從節(jié)點,命令如下

scp -r /opt/spark/conf/spark-env.sh root@slave1:/opt/spark/conf/
scp -r /opt/spark/conf/spark-env.sh root@slave2:/opt/spark/conf/

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

17.注意事項,如不修改此項,可能在提交作業(yè)時拋相關(guān)異常,Yarn的資源調(diào)用超出上限,需修在文件最后添加屬性改默認(rèn)校驗屬性,修改文件為
{HADOOP_HOME/etc/hadoop}/yarn-site.xml

vim /opt/hadoop/etc/hadoop/yarn-site.xml
<property>
	<name>yarn.nodemanager.pmem-check-enabled</name>
	<value>false</value>
</property>
<property>
	<name>yarn.nodemanager.vmem-check-enabled</name>
	<value>false</value>
</property>

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

18.修改完成后分發(fā)至集群其它節(jié)點:

scp /opt/hadoop/etc/hadoop/yarn-site.xml root@slave1:/opt/hadoop/etc/hadoop/
scp /opt/hadoop/etc/hadoop/yarn-site.xml root@slave2:/opt/hadoop/etc/hadoop/

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

19.開啟Hadoop集群,在開啟Spark On Yarn集群之前必須首先開啟Hadoop集群,指令如下:

start-dfs.sh
start-yarn.sh

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

20.開啟spark shell會話

spark-shell --master yarn-client

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

21.查看三臺節(jié)點的后臺守護進程

jps

Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

22.查看查看WebUI界面,應(yīng)用提交后,進入Hadoop的Yarn資源調(diào)度頁面http://master:8088,查看應(yīng)用的運行情況,如圖所示
Spark on Yarn集群模式搭建及測試,大數(shù)據(jù)技術(shù)學(xué)習(xí),spark,大數(shù)據(jù),分布式,運維,服務(wù)器,linux

所有配置完成,如果本篇文章對你有幫助,記得點贊關(guān)注+收藏哦~文章來源地址http://www.zghlxwxcb.cn/news/detail-677438.html

到了這里,關(guān)于Spark on Yarn集群模式搭建及測試的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • flink on yarn集群部署模式

    flink on yarn集群部署模式

    介紹 YARN 上部署的過程是:客戶端把 Flink 應(yīng)用提交給 Yarn 的ResourceManager, Yarn 的 ResourceManager 會向 Yarn 的 NodeManager 申請容器。在這些容器上,F(xiàn)link 會部署JobManager 和 TaskManager 的實例,從而啟動集群。Flink 會根據(jù)運行在 JobManger 上的作業(yè)所需要的 Slot 數(shù)量動態(tài)分配TaskManager 資源。

    2024年01月23日
    瀏覽(20)
  • Spark on Yarn 部署模式運行常用參數(shù)和認(rèn)證參數(shù)理解

    Spark支持以下三種部署模式 Client模式:在Client模式下,驅(qū)動程序運行在提交應(yīng)用程序的客戶端上。應(yīng)用程序使用集群中的資源來執(zhí)行任務(wù)。 這種模式適用于開發(fā)和調(diào)試應(yīng)用程序,因為它允許開發(fā)人員與驅(qū)動程序交互并查看應(yīng)用程序的輸出。 Cluster模式:在Cluster模式下,驅(qū)動程

    2024年02月06日
    瀏覽(19)
  • 大數(shù)據(jù)集群搭建全部過程(Vmware虛擬機、hadoop、zookeeper、hive、flume、hbase、spark、yarn)

    大數(shù)據(jù)集群搭建全部過程(Vmware虛擬機、hadoop、zookeeper、hive、flume、hbase、spark、yarn)

    1.網(wǎng)關(guān)配置(參照文檔) 注意事項:第一臺虛擬機改了,改為centos 101 ,地址為192.168.181.130 網(wǎng)關(guān)依然是192.168.181.2,但是一定要注意,它在D盤的文件名稱是Hadoop 101,后面重新搭建的會命名文件夾為hadoop 101,hadoop 102和hadoop 103,然后發(fā)到一個總的文件夾hadoop_03里面去 VMnet8的IP地址一定

    2024年02月02日
    瀏覽(29)
  • 測試環(huán)境搭建整套大數(shù)據(jù)系統(tǒng)(三:搭建集群zookeeper,hdfs,mapreduce,yarn,hive)

    測試環(huán)境搭建整套大數(shù)據(jù)系統(tǒng)(三:搭建集群zookeeper,hdfs,mapreduce,yarn,hive)

    https://blog.csdn.net/weixin_43446246/article/details/123327143 java_home填寫自己安裝的路徑。 vim core-site.xml 將以下信息填寫到configuration中 vim hdfs-site.xml vim mapred-site.xml vim yarn-site.xml vim workers 啟動zk 三臺機器全部執(zhí)行 在node01執(zhí)行 格式化NameNode 。 在node01執(zhí)行 啟動hdfs 在node01執(zhí)行 啟動yarn jps

    2024年02月20日
    瀏覽(161)
  • 《PySpark大數(shù)據(jù)分析實戰(zhàn)》-12.Spark on YARN配置Spark運行在YARN上

    《PySpark大數(shù)據(jù)分析實戰(zhàn)》-12.Spark on YARN配置Spark運行在YARN上

    ?? 博主簡介 ?? 作者簡介:大家好,我是wux_labs。?? 熱衷于各種主流技術(shù),熱愛數(shù)據(jù)科學(xué)、機器學(xué)習(xí)、云計算、人工智能。 通過了TiDB數(shù)據(jù)庫專員(PCTA)、TiDB數(shù)據(jù)庫專家(PCTP)、TiDB數(shù)據(jù)庫認(rèn)證SQL開發(fā)專家(PCSD)認(rèn)證。 通過了微軟Azure開發(fā)人員、Azure數(shù)據(jù)工程師、Azure解決

    2024年02月03日
    瀏覽(49)
  • Flink 本地單機/Standalone集群/YARN模式集群搭建

    Flink 本地單機/Standalone集群/YARN模式集群搭建

    本文簡述 Flink 在 Linux 中安裝步驟,和示例程序的運行。需要安裝 JDK1.8 及以上版本。 下載地址:下載 Flink 的二進制包 點進去后,選擇如下鏈接: 解壓 flink-1.10.1-bin-scala_2.12.tgz ,我這里解壓到 soft 目錄 解壓后進入 Flink 的 bin 目錄執(zhí)行如下腳本即可 進入 Flink 頁面看看,如果

    2024年02月05日
    瀏覽(26)
  • Spark大數(shù)據(jù)處理學(xué)習(xí)筆記(2.2)搭建Spark Standalone集群

    Spark大數(shù)據(jù)處理學(xué)習(xí)筆記(2.2)搭建Spark Standalone集群

    一、在master虛擬機上安裝配置Spark 1.1 將spark安裝包上傳到master虛擬機 下載Spark:pyw2 進入/opt目錄,查看上傳的spark安裝包 1.2 將spark安裝包解壓到指定目錄 執(zhí)行命令: tar -zxvf spark-3.3.2-bin-hadoop3.tgz 修改文件名:mv spark-3.3.2-bin-hadoop3 spark-3.3.2 1.3 配置spark環(huán)境變量 執(zhí)行命令:vim

    2024年02月09日
    瀏覽(25)
  • Spark on Yarn 最佳運行參數(shù)調(diào)優(yōu)-計算方式_spark on yarn 調(diào)優(yōu) nodemanager

    Spark on Yarn 最佳運行參數(shù)調(diào)優(yōu)-計算方式_spark on yarn 調(diào)優(yōu) nodemanager

    先自我介紹一下,小編浙江大學(xué)畢業(yè),去過華為、字節(jié)跳動等大廠,目前阿里P7 深知大多數(shù)程序員,想要提升技能,往往是自己摸索成長,但自己不成體系的自學(xué)效果低效又漫長,而且極易碰到天花板技術(shù)停滯不前! 因此收集整理了一份《2024年最新軟件測試全套學(xué)習(xí)資料》

    2024年04月26日
    瀏覽(24)
  • kyuubi整合spark on yarn

    kyuubi整合spark on yarn

    目標(biāo): 1.實現(xiàn)kyuubi spark on yarn 2.實現(xiàn) kyuubi spark on yarn 資源的動態(tài)分配 注意:版本 kyuubi 1.8.0 、 spark 3.4.2 、hadoop 3.3.6 前置準(zhǔn)備請看如下文章 文章 鏈接 hadoop一主三從安裝 鏈接 spark on yarn 鏈接 官網(wǎng)下載地址 官方文檔 修改配置文件 三千五百萬 主鍵id單筆獲取 非主鍵 count 測試 差

    2024年04月08日
    瀏覽(20)
  • (超詳細(xì))Spark on Yarn安裝配置

    (超詳細(xì))Spark on Yarn安裝配置

    1,前期準(zhǔn)備 使用 root 用戶完成相關(guān)配置,已安裝配置Hadoop 及前置環(huán)境 2,spark上傳解壓到master服務(wù)器 3,修改環(huán)境變量 ?/etc/profile末尾添加下面代碼 4,環(huán)境變量生效 5,運行spark-submit --version 顯示如下 6,修改saprk-env.sh文件 ??在.../spark-3.1.1-bin-hadoop3.2/conf目錄下,將下面兩行

    2024年03月21日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包