国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

11.Linux下Spark的安裝配置以及spark-shell的啟動和 Spark集群環(huán)境搭建

這篇具有很好參考價值的文章主要介紹了11.Linux下Spark的安裝配置以及spark-shell的啟動和 Spark集群環(huán)境搭建。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

本案例軟件包:鏈接:https://pan.baidu.com/s/1zABhjj2umontXe2CYBW_DQ?
提取碼:1123(若鏈接失效在下面評論,我會及時更新).

目錄

(1)安裝Spark

1.先用xftp將安裝包傳到home/hadoop/Downloads文件夾下,然后解壓安裝。

2.解壓縮:

3. 更改文件夾名稱:

4.修改hadoop用戶對文件夾spark的訪問權(quán)限:

(2)配置

1.復(fù)制一份由Spark安裝文件自帶的配置文件模板:

2.使用vim編輯器打開spark-env.sh,再第一行添加配置信息:

3.驗證Spark安裝是否成功:

4.?啟動HDFS后,Spark可以對HDFS中的數(shù)據(jù)進(jìn)行讀寫。

(3)Spark-shell的啟動

1.啟動

2. 讀取文件,統(tǒng)計行數(shù)

(3)?Spark集群環(huán)境搭建

1.按照上面的(1)部分安裝與配置完spark

2.配置環(huán)境變量

?????????3.配置Spark

a:在master(主機)配置slaves文件

b: 在master節(jié)點配置spark-env.sh文件

c:配置slave節(jié)點

4.啟動spark


(1)安裝Spark

1.先用xftp將安裝包傳到home/hadoop/Downloads文件夾下,然后解壓安裝。

11.Linux下Spark的安裝配置以及spark-shell的啟動和 Spark集群環(huán)境搭建

2.解壓縮:

sudo tar -zxf spark-2.1.0-bin-without-hadoop.tgz -C /usr/local

3. 更改文件夾名稱:

cd  /usr/local
sudo mv spark-2.1.0-bin-without-hadoop spark

4.修改hadoop用戶對文件夾spark的訪問權(quán)限:

sudo chown -R hadoop:hadoop ./spark

(2)配置

1.復(fù)制一份由Spark安裝文件自帶的配置文件模板:

cd /usr/local/spark
cp ./conf/spark-env.sh.template ./conf/spark-env.sh
vim ./conf/spark-env.sh

2.使用vim編輯器打開spark-env.sh,再第一行添加配置信息:

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

3.驗證Spark安裝是否成功:

cd /usr/local/spark
bin/run-example SparkPi 2>&1 | grep "Pi is roughly"

11.Linux下Spark的安裝配置以及spark-shell的啟動和 Spark集群環(huán)境搭建

?如圖所示:返回結(jié)果:Pi is roughly 3.144115720578603

既安裝成功!??!

4.?啟動HDFS后,Spark可以對HDFS中的數(shù)據(jù)進(jìn)行讀寫。

(3)Spark-shell的啟動

1.啟動

cd /usr/local/spark
./bin/spark-shell

11.Linux下Spark的安裝配置以及spark-shell的啟動和 Spark集群環(huán)境搭建

2. 讀取文件,統(tǒng)計行數(shù)

scala> val textFile = sc.textFile("file:///usr/local/spark/README.md")
scala> textFile.count()

11.Linux下Spark的安裝配置以及spark-shell的啟動和 Spark集群環(huán)境搭建

?返回結(jié)果如上圖所示?。。?/p>

(3)?Spark集群環(huán)境搭建

1.按照上面的(1)部分安裝與配置完spark

2.配置環(huán)境變量

在master(主節(jié)點)配置環(huán)境變量

sudo vim ~/.bashrc

在.bashrc文件中增加:

#spark
export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SCALA_HOME/bin:$SPARK_HOME/bin:$SPARK_HOME/sbin

使用source命令使配置生效:

source ~/.bashrc

?3.配置Spark

a:在master(主機)配置slaves文件

cd /usr/local/spark
cp ./conf/slaves.template ./conf/slaves

?在salves文件中設(shè)置Spark集群的Worker節(jié)點

[hadoop@master spark]$ vim ./conf/slaves

添加以下內(nèi)容:?

11.Linux下Spark的安裝配置以及spark-shell的啟動和 Spark集群環(huán)境搭建

b: 在master節(jié)點配置spark-env.sh文件

[hadoop@master spark]$ cp ./conf/spark-env.sh.template ./conf/spark-env.sh

編輯spark-env.sh文件:

[hadoop@master spark]$ vim ./conf/spark-env.sh
#!/usr/bin/env bash
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
#export SPARK_MASTER_IP=192.168.242.129    //自己maser的IP
export SPARK_MASTER_HOST=192.168.242.129

11.Linux下Spark的安裝配置以及spark-shell的啟動和 Spark集群環(huán)境搭建

?c:配置slave節(jié)點

啟動slave01和slave02節(jié)點,然后,在master節(jié)點執(zhí)行如下命令,將master節(jié)點的/usr/local/spark文件夾復(fù)制到各個slave節(jié)點:

[hadoop@master local]$ tar -zcf ~/spark.master.tar.gz ./spark 
[hadoop@master local]$ cd 
[hadoop@master ~]$ scp ./spark.master.tar.gz slave01:/home/hadoop
[hadoop@master ~]$ scp ./spark.master.tar.gz slave02:/home/hadoop

11.Linux下Spark的安裝配置以及spark-shell的啟動和 Spark集群環(huán)境搭建

?在slave01和slave02節(jié)點上分別執(zhí)行如下命令(下面以slave01為例):

sudo rm -rf /usr/local/spark
sudo tar -zcf sparm.master.tar.gz -C /usr/local
sudo chown -R hadoop:hadoop /usr/local/spark

4.啟動spark

在master主機上啟動hdfs yarn

在master上再啟動spark

cd /usr/local/spark
sbin/start-master.sh
sbin/start-slaves.sh

?如下圖已開啟spark進(jìn)程

11.Linux下Spark的安裝配置以及spark-shell的啟動和 Spark集群環(huán)境搭建

?測試:鏈接http://192.168.242.129:8080

在master節(jié)點上,通過瀏覽器查看集群信息有兩個worker

11.Linux下Spark的安裝配置以及spark-shell的啟動和 Spark集群環(huán)境搭建

?5.關(guān)閉spark

stop-master.sh
stop-slaves.sh
stop-yarn.sh
stop-dfs.sh文章來源地址http://www.zghlxwxcb.cn/news/detail-459449.html

到了這里,關(guān)于11.Linux下Spark的安裝配置以及spark-shell的啟動和 Spark集群環(huán)境搭建的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Spark系列(一)spark簡介及安裝配置

    Spark系列(一)spark簡介及安裝配置

    目錄 1. spark簡介: 2. spark特點: 2.1 Speed:速度快 2.2?Easy of Use:易用性 2.3 Generality:通用性 2.4 Runs Everywhere:到處運行 3. Spark的應(yīng)用場景 4. 環(huán)境要求及準(zhǔn)備工作 5. spark搭建模式: 5.1 local模式在解壓縮安裝后 5.2 Standalone模式搭建(基于hdfs文件存儲) 5.1.1 首先配置spark環(huán)境變量:

    2023年04月09日
    瀏覽(22)
  • Spark環(huán)境搭建及Spark shell

    Spark環(huán)境搭建及Spark shell

    環(huán)境準(zhǔn)備:三臺Linux,一個安裝Master,其他兩臺機器安裝Worker 下載spark安裝包,下載地址:https://spark.apache.org/downloads.html 上傳spark安裝包到Linux服務(wù)器上 解壓spark安裝包 進(jìn)入到spark按照包目錄并將conf目錄下的spark-env.sh.template重命名為spark-env.sh,再修改 將conf目錄下的workers.tem

    2024年02月11日
    瀏覽(16)
  • spark安裝配置

    spark安裝配置

    目錄 1.準(zhǔn)備工作 2.下載spark-3.1.1-bin-hadoop2.7和scala-2.12.13并解壓 3.配置環(huán)境變量 4.配置文件$SPARK_HOME/conf/spark-env.sh 6.配置spark的歷史服務(wù)?($SPARK_HOME/conf/) 7.配置文件$SPARK_HOME/conf/workers 8.配置文件拷貝 9.集群的啟動和停止 10.錯誤排查方法 具備java環(huán)境 配置主機名 配置免密碼登錄 防

    2024年02月05日
    瀏覽(17)
  • Spark 下載、安裝與配置

    Spark 下載、安裝與配置

    Apache Spark 是一個快速的通用集群計算系統(tǒng)。它提供了Java, Scala, Python ,R 四種編程語言的 API 編程接口和基于 DAG 圖執(zhí)行的優(yōu)化引擎。它還支持一系列豐富的高級工具:處理結(jié)構(gòu)化數(shù)據(jù)的 Spark SQL,用于機器學(xué)習(xí)的 MLlib,控制圖、并行圖操作和計算的一組算法和工具的集合

    2024年02月11日
    瀏覽(22)
  • ubuntu下Hadoop以及Spark的偽分布式安裝:一

    1.1 安裝前說明: 很多初學(xué)者在安裝的時候會碰到各種各樣的問題,尤其各種版本的搭配問題。所以特意做一個初步安裝的引導(dǎo),希望大家都能一次調(diào)試出來。 經(jīng)過測試,jdk11 + scala2.13.13 + hadoop3.3.6+spark3.5.1,這是暫時來說scalsa2能支持的最完美的搭配。Hadoop能支持到的java最完

    2024年04月23日
    瀏覽(30)
  • 【Ubuntu-大數(shù)據(jù)】spark安裝配置

    【Ubuntu-大數(shù)據(jù)】spark安裝配置

    參考的 文章: http://dblab.xmu.edu.cn/blog/931-2/ Spark部署模式主要有四種: Local模式(單機模式) Standalone模式(使用Spark自帶的簡單集群管理器)、 YARN模式(使用YARN作為集群管理器) Mesos模式(使用Mesos作為集群管理器)。 (1)解壓壓縮包到之前Hadoop安裝的目錄:本地計算機

    2023年04月09日
    瀏覽(22)
  • Linux安裝Spark的詳細(xì)過程

    Linux安裝Spark的詳細(xì)過程

    安裝:文件提取鏈接:https://pan.baidu.com/s/1XI_mRKY2c6CHlt6--3d7kA?pwd=tlu2? (可以 導(dǎo)入至U盤中 ,再從U盤拷入至虛擬機中,這點在我講述安裝jdk8的文章中有提到過,如果有興趣,可以去看一下:http://t.csdn.cn/POerk) 我把jdk8、hadoop-3.3.4、zookeeper-3.6.2、hbase-2.3.3、spark-3.2.2的解壓后的文件

    2024年02月09日
    瀏覽(19)
  • Intellij IDEA安裝配置Spark與運行

    Intellij IDEA安裝配置Spark與運行

    目錄 Scala配置教程 配置Spark運行環(huán)境 編寫Spark程序 ?1、包和導(dǎo)入 2、定義對象 3、主函數(shù) 4、創(chuàng)建Spark配置和上下文 5、定義輸入文件路徑 6、單詞計數(shù)邏輯 7、輸出結(jié)果 8、完整代碼: IDEA配置Scala:教程 添加Spark開發(fā)依賴包(快捷鍵:Ctrl+Alt+Shift+S) 找到Spark安裝目錄下的jars文

    2024年04月16日
    瀏覽(20)
  • (超詳細(xì))Spark on Yarn安裝配置

    (超詳細(xì))Spark on Yarn安裝配置

    1,前期準(zhǔn)備 使用 root 用戶完成相關(guān)配置,已安裝配置Hadoop 及前置環(huán)境 2,spark上傳解壓到master服務(wù)器 3,修改環(huán)境變量 ?/etc/profile末尾添加下面代碼 4,環(huán)境變量生效 5,運行spark-submit --version 顯示如下 6,修改saprk-env.sh文件 ??在.../spark-3.1.1-bin-hadoop3.2/conf目錄下,將下面兩行

    2024年03月21日
    瀏覽(26)
  • win 10下spark的安裝及配置

    win 10下spark的安裝及配置

    一級標(biāo)題 提示:文章寫完后,目錄可以自動生成,如何生成可參考右邊的幫助文檔 提示:以下是本篇文章正文內(nèi)容,下面案例可供參考 在jdk官網(wǎng)中下載與自己電腦相應(yīng)配置的jdk。 點擊電腦的設(shè)置——關(guān)于——高級系統(tǒng)設(shè)置——環(huán)境變量中配置jdk環(huán)境變量。 點擊新建,輸入

    2023年04月08日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包