1,前期準備
使用 root 用戶完成相關(guān)配置,已安裝配置Hadoop 及前置環(huán)境
2,spark上傳解壓到master服務(wù)器
3,修改環(huán)境變量
?/etc/profile末尾添加下面代碼
export SPARK_HOME=.../spark-3.1.1-bin-hadoop3.2(注意:需要替換成你自己得路徑)
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
4,環(huán)境變量生效
source /etc/profile
5,運行spark-submit --version
顯示如下
6,修改saprk-env.sh文件
??在.../spark-3.1.1-bin-hadoop3.2/conf目錄下,將下面兩行添加至spark-env.sh文件末尾:
HADOOP_CONF_DIR=.../hadoop-3.1.3/etc/hadoop
YARN_CONF_DIR=.../hadoop-3.1.3/etc/hadoop
7,運行計算Pi的jar包
?命令如下:
spark-submit --master yarn --class org.apache.spark.examples.SparkPi $SPARK_HOME/examples/jars/spark-example_2.11-2.1.1.jar
?結(jié)果顯示如下:
8,注意
如果報內(nèi)存大小錯誤,修改yarn-site.xml,設(shè)置虛擬內(nèi)存,至少是物理內(nèi)存的4倍文章來源:http://www.zghlxwxcb.cn/news/detail-841977.html
文章來源地址http://www.zghlxwxcb.cn/news/detail-841977.html
到了這里,關(guān)于(超詳細)Spark on Yarn安裝配置的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!