国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

spark安裝配置

這篇具有很好參考價值的文章主要介紹了spark安裝配置。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

1.準(zhǔn)備工作

2.下載spark-3.1.1-bin-hadoop2.7和scala-2.12.13并解壓

3.配置環(huán)境變量

4.配置文件$SPARK_HOME/conf/spark-env.sh

6.配置spark的歷史服務(wù)?($SPARK_HOME/conf/)

7.配置文件$SPARK_HOME/conf/workers

8.配置文件拷貝

9.集群的啟動和停止

10.錯誤排查方法


1.準(zhǔn)備工作

  • 具備java環(huán)境
  • 配置主機(jī)名
  • 配置免密碼登錄
  • 防火墻關(guān)閉

2.下載spark-3.1.1-bin-hadoop2.7和scala-2.12.13并解壓

下載路徑:Downloads | Apache Spark

tar -zxvf 壓縮包路徑

?Spark目錄介紹

  • bin —— Spark操作命令
  • conf —— 配置文件
  • data —— Spark測試文件
  • examples —— Spark示例程序
  • jars
  • LICENSE
  • licenses
  • NOTICE
  • python
  • R
  • README.md
  • RELEASE
  • sbin —— Spark集群命令
  • yarn —— Spark-yarn配置

3.配置環(huán)境變量

#scala

export SCALA_HOME=/home/Group10/scala-2.12.10

export PATH=${SCALA_HOME}/bin:$PATH

#spark

export SPARK_HOME=/home/Group10/spark-3.1.1/spark-3.1.1-bin-hadoop2.7

export PATH=${SPARK_HOME}/bin:$PATH

使環(huán)境生效:

source .bashrc

4.配置文件$SPARK_HOME/conf/spark-env.sh

export ?JAVA_HOME=/home/Group10/jdk1.8.0_271
export ?SCALA_HOME=/home/Group10/scala-2.12.13
export ?SPARK_WORKER_MEMORY=5G
export ?SPARK_WORKER_CORES=3
export ?SPARK_WORKER_INSTANCES=1
export ?SPARK_MASTER_IP=10.103.105.94
export SPARK_DIST_CLASSPATH=$(/home/Group10/hadoop/hadoop-2.7.6/bin/hadoop classpath)
export ?HADOOP_CONF_DIR=/home/Group10/hadoop/hadoop-2.7.6/etc/hadoop/
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 -Dspark.history.retainedApplications=50 -Dspark.history.fs.logDirectory=hdfs://10.103.105.94:8020/data/spark/sparklog"

spark安裝配置

6.配置spark的歷史服務(wù)?($SPARK_HOME/conf/)

由于spark-shell停止掉后,hadoop頁面就看不到歷史任務(wù)的運(yùn)行情況,所以開發(fā)時都配置歷史服務(wù)器記錄任務(wù)運(yùn)行情況。

(1)復(fù)制一份spark-default.conf.template文件并改名為spark-default.conf

cp spark-defaults.conf.template spark-defaults.conf

(2)配置日志存儲路徑

vim spark-defaults.conf

spark.eventLog.enabled true
spark.eventLog.dir hdfs://10.103.105.94:8020/data/spark/sparklog
spark.eventLog.compress true
#spark.yarn.historyServer.address=10.103.105.98:18080
#spark.history.ui.port=18080
spark.history.fs.logDirectory hdfs://10.103.105.94:8020/data/spark/sparklog

spark安裝配置?(3)在配置文件spark-env.sh中添加入下內(nèi)容(上一步配置已經(jīng)添加過)

export SPARK_HISTORY_OPTS="

-Dspark.history.ui.port=18080?

-Dspark.history.fs.logDirectory=hdfs://10.103.105.94:8020/data/spark/sparklog

-Dspark.history.retainedApplications=50"

7.配置文件$SPARK_HOME/conf/workers

westgisB095
westgisB096
westgisB097
westgisB098

8.配置文件拷貝

scp -r /home/Group10/spark-3.1.1/spark-3.1.1-bin-hadoop2.7/conf/spark-env.sh Group10@10.103.105.95:/home/Group10/spark-3.1.1/spark-3.1.1-bin-hadoop2.7/conf/
scp -r /home/Group10/spark-3.1.1/spark-3.1.1-bin-hadoop2.7/conf/spark-defaults.conf Group10@10.103.105.95:/home/Group10/spark-3.1.1/spark-3.1.1-bin-hadoop2.7/conf/
scp -r /home/Group10/spark-3.1.1/spark-3.1.1-bin-hadoop2.7/conf/workers Group10@10.103.105.95:/home/Group10/spark-3.1.1/spark-3.1.1-bin-hadoop2.7/conf/

其他從節(jié)點同樣的拷貝方法

9.集群的啟動和停止

(1)先啟動HDFS集群

$HADOOP_HOME/sbin/start-dfs.sh

(2)啟動spark集群

在主節(jié)點執(zhí)行以下兩個腳本:

$SPARK_HOME/sbin/start-master.sh

$SPARK_HOME/sbin/start-workers.sh

(3)查看監(jiān)控界面

在瀏覽器輸入:

http://10.103.104.94:8080

spark安裝配置

(4)查看節(jié)點進(jìn)程

在主節(jié)點和從節(jié)點上使用jps命令查看節(jié)點進(jìn)程,或使用ps aux|grep java 命令查看節(jié)點進(jìn)程。

如果是主節(jié)點,應(yīng)該出現(xiàn)Master、NameNode、SecondaryNameNode等三個守護(hù)進(jìn)程;如果是從節(jié)點,應(yīng)該出現(xiàn)Worker和DataNode兩個守護(hù)進(jìn)程。

如果發(fā)現(xiàn)進(jìn)程缺失,查看對應(yīng)的日志文件尋找錯誤原因。

spark安裝配置

(5)啟動spark-shell交互式工具

spark-shell

spark安裝配置(6)查看歷史任務(wù)監(jiān)控界面

啟動命令:

./sbin/start-history-server.sh

http://10.103.105.94:18080/

spark安裝配置


?(7)停止Spark集群

在主節(jié)點執(zhí)行以下兩個腳本:

$SPARK_HOME/sbin/stop-workers.sh

$SPARK_HOME/sbin/stop-master.sh

(8)關(guān)閉HDFS集群

$HADOOP_HOME/sbin/stop-dfs.sh

10.錯誤排查方法

(1)查看端口是否開啟

運(yùn)行命令? netstat–tunlp|grep 8080

查看8080端口是否開啟。

(2)查看占用端口的進(jìn)程

運(yùn)行命令lsof–i:8080

查看8080端口被那個進(jìn)程占用。

(3)查看運(yùn)行日志

Spark主節(jié)點日志文件路徑:

$SPARK_HOME/logs/*-Master-.log

$SPARK_HOME/logs/*-Master-.out

Spark從節(jié)點日志文件路徑

$SPARK_HOME/logs/*-Worker-.log

$SPARK_HOME/logs/*-Worker-.out文章來源地址http://www.zghlxwxcb.cn/news/detail-450733.html

到了這里,關(guān)于spark安裝配置的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 修改npm全局安裝的插件(下載目錄指向)

    修改npm全局安裝的插件(下載目錄指向)

    我們先打開終端 然后執(zhí)行 查看npm 的下載地址 一般都會在C盤 但是 我們都知道 C盤下東西多了是很不好的 所以 我們可以執(zhí)行 將 npm 的下載地址 改變成 E盤下的 npmfile目錄 這樣 以后 默認(rèn)全局安裝的插件就會都到這個地址下了 執(zhí)行完之后 我們再次執(zhí)行 查看到的就是我們剛才設(shè)

    2024年02月07日
    瀏覽(42)
  • Linux系統(tǒng)下Spark的下載與安裝(pyspark運(yùn)行示例)

    Linux系統(tǒng)下Spark的下載與安裝(pyspark運(yùn)行示例)

    最近需要完成數(shù)據(jù)課程的作業(yè),因此實踐了一下如何安裝并配置好spark 由于我想要將hadoop和spark一起使用,因此必須確定好spark的版本 Spark和Hadoop版本對應(yīng)關(guān)系如下: Spark版本 Hadoop版本 2.4.x 2.7.x 3.0.x 3.2.x 可進(jìn)入終端查看Hadoop版本 我這里的版本是2.7.1,因此選擇下載2.4版本的

    2024年01月25日
    瀏覽(26)
  • Nginx下載和安裝教程、Nginx目錄結(jié)構(gòu)、Nginx具體應(yīng)用

    Nginx下載和安裝教程、Nginx目錄結(jié)構(gòu)、Nginx具體應(yīng)用

    Nginx是一款輕量級的開源Web服務(wù)器軟件,也是一種反向代理服務(wù)器。它以其高性能和靈活性而被廣泛應(yīng)用于互聯(lián)網(wǎng)領(lǐng)域。本文將介紹Nginx的概述、下載和安裝以及目錄結(jié)構(gòu)。 (1)Nginx介紹 Nginx最初由Igor Sysoev開發(fā),目的是解決C10K問題,即同時處理成千上萬個并發(fā)連接的需求。

    2024年02月15日
    瀏覽(29)
  • Docker介紹下載安裝、制作鏡像及容器、做目錄映射、做端口映射

    Docker介紹下載安裝、制作鏡像及容器、做目錄映射、做端口映射

    在計算機(jī)中,虛擬化(英語:Virtualization)是一種資源管理技術(shù),是將計算機(jī)的各種實體資源,如服務(wù)器、網(wǎng)絡(luò)、內(nèi)存及存儲等,予以抽象、轉(zhuǎn)換后呈現(xiàn)出來,打破實體結(jié)構(gòu)間的不可切割的障礙,使用戶可以比原本的組態(tài)更好的方式來應(yīng)用這些資源。這些資源的新虛擬部份是

    2023年04月12日
    瀏覽(30)
  • Spark系列(一)spark簡介及安裝配置

    Spark系列(一)spark簡介及安裝配置

    目錄 1. spark簡介: 2. spark特點: 2.1 Speed:速度快 2.2?Easy of Use:易用性 2.3 Generality:通用性 2.4 Runs Everywhere:到處運(yùn)行 3. Spark的應(yīng)用場景 4. 環(huán)境要求及準(zhǔn)備工作 5. spark搭建模式: 5.1 local模式在解壓縮安裝后 5.2 Standalone模式搭建(基于hdfs文件存儲) 5.1.1 首先配置spark環(huán)境變量:

    2023年04月09日
    瀏覽(22)
  • spark安裝配置

    spark安裝配置

    目錄 1.準(zhǔn)備工作 2.下載spark-3.1.1-bin-hadoop2.7和scala-2.12.13并解壓 3.配置環(huán)境變量 4.配置文件$SPARK_HOME/conf/spark-env.sh 6.配置spark的歷史服務(wù)?($SPARK_HOME/conf/) 7.配置文件$SPARK_HOME/conf/workers 8.配置文件拷貝 9.集群的啟動和停止 10.錯誤排查方法 具備java環(huán)境 配置主機(jī)名 配置免密碼登錄 防

    2024年02月05日
    瀏覽(17)
  • Android Studio安裝和設(shè)置SDK、Gradle(國內(nèi)源)、AVD下載目錄詳細(xì)教程

    Android Studio安裝和設(shè)置SDK、Gradle(國內(nèi)源)、AVD下載目錄詳細(xì)教程

    本機(jī)環(huán)境:win11家庭版 Android Studio版本:android-s tudio-2022.2.1.20-windows android studio官網(wǎng) 在安裝目標(biāo)盤創(chuàng)建文件夾,不要有中文文件夾,文件夾名稱不要帶空格。 本次安裝在VMware虛擬機(jī)中安裝,只有一個C盤,無其他盤,所以自定義安裝目錄都在C盤下創(chuàng)建的 Android studio安裝完成 上

    2024年02月14日
    瀏覽(26)
  • quarkus實戰(zhàn)之一:準(zhǔn)備工作

    quarkus實戰(zhàn)之一:準(zhǔn)備工作

    這里分類和匯總了欣宸的全部原創(chuàng)(含配套源碼):https://github.com/zq2599/blog_demos 《quarkus實戰(zhàn)》系列是欣宸在2022年春季推出的又一個精品原創(chuàng)系列,作者將自己對java的熱愛滲透到每段文字和每行代碼中,全系列秉承欣宸一貫的知識+實戰(zhàn)風(fēng)格,既有知識普及、更有實際操作,在涉

    2024年02月16日
    瀏覽(20)
  • 一、RHCE--準(zhǔn)備工作

    第一種:通過命令行的方式 1.激活網(wǎng)卡(重新加載配置): 第二種:通過vim編輯器修改配置文件的方式 第三種:通過圖形化的方式: 1.查看網(wǎng)卡信息: 2.查看網(wǎng)卡: 1.配置yum源 2.建立軟件倉庫:repository - repo 3.配置的目錄: /etc/yum.repos.d/ 4.本地yum源:iso鏡像不能直接使用,需要

    2024年01月22日
    瀏覽(17)
  • 【P1】Jmeter 準(zhǔn)備工作

    【P1】Jmeter 準(zhǔn)備工作

    Apache JMeter 是一個開源、純 Java、優(yōu)秀的性能測試工具 能夠測試許多不同的應(yīng)用程序/服務(wù)器/協(xié)議類型: HTTP、HTTPS REST、SOAP JDBC FTP LDAP JMS 消息類 郵件類(SMTP、POP3、和IMAP) 命令或 shell 腳本 TCP Java 請求擴(kuò)展 主要特性: 可視化設(shè)計、功能齊全 (可視化) 快速設(shè)計測試計劃、

    2024年02月06日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包