国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

(超詳細)Spark on Yarn安裝配置

這篇具有很好參考價值的文章主要介紹了(超詳細)Spark on Yarn安裝配置。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1,前期準備

使用 root 用戶完成相關(guān)配置,已安裝配置Hadoop 及前置環(huán)境

2,spark上傳解壓到master服務(wù)器

3,修改環(huán)境變量

?/etc/profile末尾添加下面代碼

export SPARK_HOME=.../spark-3.1.1-bin-hadoop3.2(注意:需要替換成你自己得路徑)
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

4,環(huán)境變量生效

source /etc/profile

5,運行spark-submit --version

顯示如下

spark on yarn安裝配置,大數(shù)據(jù)比賽,數(shù)據(jù)分析-工具使用,spark,大數(shù)據(jù),分布式

6,修改saprk-env.sh文件

??在.../spark-3.1.1-bin-hadoop3.2/conf目錄下,將下面兩行添加至spark-env.sh文件末尾:

HADOOP_CONF_DIR=.../hadoop-3.1.3/etc/hadoop
YARN_CONF_DIR=.../hadoop-3.1.3/etc/hadoop

7,運行計算Pi的jar包

?命令如下:

spark-submit --master yarn --class org.apache.spark.examples.SparkPi $SPARK_HOME/examples/jars/spark-example_2.11-2.1.1.jar

?結(jié)果顯示如下:

spark on yarn安裝配置,大數(shù)據(jù)比賽,數(shù)據(jù)分析-工具使用,spark,大數(shù)據(jù),分布式

8,注意

如果報內(nèi)存大小錯誤,修改yarn-site.xml,設(shè)置虛擬內(nèi)存,至少是物理內(nèi)存的4倍

spark on yarn安裝配置,大數(shù)據(jù)比賽,數(shù)據(jù)分析-工具使用,spark,大數(shù)據(jù),分布式文章來源地址http://www.zghlxwxcb.cn/news/detail-841977.html

到了這里,關(guān)于(超詳細)Spark on Yarn安裝配置的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【大數(shù)據(jù)監(jiān)控】Grafana、Spark、HDFS、YARN、Hbase指標性能監(jiān)控安裝部署詳細文檔

    【大數(shù)據(jù)監(jiān)控】Grafana、Spark、HDFS、YARN、Hbase指標性能監(jiān)控安裝部署詳細文檔

    Grafana 是一款開源的數(shù)據(jù)可視化工具,使用 Grafana 可以非常輕松的將數(shù)據(jù)轉(zhuǎn)成圖表(如下圖)的展現(xiàn)形式來做到數(shù)據(jù)監(jiān)控以及數(shù)據(jù)統(tǒng)計。 解壓 配置 mapping 文件 修改spark的metrics.properties配置文件,讓其推送metrics到Graphite_exporter namenode.yaml datanode.yaml 配置 hadoop-env.sh yarn.yaml 配置 ya

    2023年04月21日
    瀏覽(19)
  • kyuubi整合spark on yarn

    kyuubi整合spark on yarn

    目標: 1.實現(xiàn)kyuubi spark on yarn 2.實現(xiàn) kyuubi spark on yarn 資源的動態(tài)分配 注意:版本 kyuubi 1.8.0 、 spark 3.4.2 、hadoop 3.3.6 前置準備請看如下文章 文章 鏈接 hadoop一主三從安裝 鏈接 spark on yarn 鏈接 官網(wǎng)下載地址 官方文檔 修改配置文件 三千五百萬 主鍵id單筆獲取 非主鍵 count 測試 差

    2024年04月08日
    瀏覽(20)
  • Spark on Yarn模式下執(zhí)行過程

    Driver Application啟動 Driver Application啟動:用戶提交的Spark Application在YARN上啟動一個ApplicationMaster(即Driver Application)進程來管理整個應(yīng)用程序的生命周期,并向ResourceManager請求資源。 獲得資源 Driver Application向ResourceManager請求可用的資源(CPU核數(shù)、內(nèi)存等),并等待接收到資源

    2024年02月01日
    瀏覽(19)
  • Spark On Yarn的兩種運行模式

    Spark On Yarn的兩種運行模式

    Spark On YARN是有兩種運行模式:Cluster模式、Client模式 Cluster模式:Driver運行在YARN容器內(nèi)部,和ApplicationMaster在同一個容器內(nèi)。 Client模式即:Driver運行在客戶端進程中,比如Driver運行在spark-submit程序的進程中。 Client模式詳細流程 YARN Client模式下,Driver在任務(wù)提交的本地機器上運

    2024年02月02日
    瀏覽(21)
  • Spark On YARN時指定Python版本

    Spark On YARN時指定Python版本

    坑很多,直接上兼容性最佳的命令,將python包上傳到 hdfs 或者 file:/home/xx/ (此處無多余的 / ) 具體細節(jié) 關(guān)于 Python包 打包可以參考 https://www.jianshu.com/p/d77e16008957,https://blog.csdn.net/sgyuanshi/article/details/114648247 非官方的python,比如 anaconda的python可能會有坑 ,所以最好先用官方版本

    2023年04月18日
    瀏覽(33)
  • Spark on Yarn集群模式搭建及測試

    Spark on Yarn集群模式搭建及測試

    ????【大數(shù)據(jù)學(xué)習(xí)記錄篇】-持續(xù)更新中~???? 點擊傳送:大數(shù)據(jù)學(xué)習(xí)專欄 持續(xù)更新中,感謝各位前輩朋友們支持學(xué)習(xí)~ Apache Spark是一個快速的、通用的大數(shù)據(jù)處理框架,它支持在各種環(huán)境中進行分布式數(shù)據(jù)處理和分析。在Yarn集群模式下搭建Spark環(huán)境可以充分利用Hadoop的資源

    2024年02月11日
    瀏覽(22)
  • 【Spark實戰(zhàn)】Windows環(huán)境下編譯Spark2 Linux上部署Spark On Yarn

    【Spark實戰(zhàn)】Windows環(huán)境下編譯Spark2 Linux上部署Spark On Yarn

    環(huán)境準備 git-2.14.1 maven-3.9.2 jdk-1.8 scala-2.11.8 zinc-0.3.15 主下載地址 spark-2.3.4 github官方地址 編譯準備 maven遠程倉庫使用的是阿里云的 解壓源碼包 spark-2.3.4.zip ,修改根模塊的pom文件。主要目的是為了變更hadoop的版本號,默認是 2.6.5 。 修改 spark-2.3.4devmake-distribution.sh 文件 主要是

    2024年02月13日
    瀏覽(21)
  • Spark on Yarn 部署模式運行常用參數(shù)和認證參數(shù)理解

    Spark支持以下三種部署模式 Client模式:在Client模式下,驅(qū)動程序運行在提交應(yīng)用程序的客戶端上。應(yīng)用程序使用集群中的資源來執(zhí)行任務(wù)。 這種模式適用于開發(fā)和調(diào)試應(yīng)用程序,因為它允許開發(fā)人員與驅(qū)動程序交互并查看應(yīng)用程序的輸出。 Cluster模式:在Cluster模式下,驅(qū)動程

    2024年02月06日
    瀏覽(19)
  • Spark單機偽分布式環(huán)境搭建、完全分布式環(huán)境搭建、Spark-on-yarn模式搭建

    Spark單機偽分布式環(huán)境搭建、完全分布式環(huán)境搭建、Spark-on-yarn模式搭建

    搭建Spark需要先配置好scala環(huán)境。三種Spark環(huán)境搭建互不關(guān)聯(lián),都是從零開始搭建。 如果將文章中的配置文件修改內(nèi)容復(fù)制粘貼的話,所有配置文件添加的內(nèi)容后面的注釋記得刪除,可能會報錯。保險一點刪除最好。 上傳安裝包解壓并重命名 rz上傳 如果沒有安裝rz可以使用命

    2024年02月06日
    瀏覽(106)
  • hive on spark 時,executor和driver的內(nèi)存設(shè)置,yarn的資源設(shè)置

    hive on spark 時,executor和driver的內(nèi)存設(shè)置,yarn的資源設(shè)置。 在使用Hive on Spark時,需要進行以下三個方面的內(nèi)存和資源設(shè)置: Executor的內(nèi)存設(shè)置 在使用Hive on Spark時,需要根據(jù)數(shù)據(jù)量和任務(wù)復(fù)雜度等因素,合理地設(shè)置每個Executor的內(nèi)存大小。通常情況下,每個Executor需要留一部分

    2024年02月16日
    瀏覽(32)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包