国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

偽分布式hadoop+spark+scala 超詳細(xì)搭建

這篇具有很好參考價值的文章主要介紹了偽分布式hadoop+spark+scala 超詳細(xì)搭建。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

目錄

安裝偽分布式hadoop

安裝 JAVA 環(huán)境

實(shí)現(xiàn)免密登陸

Hadoop環(huán)境的安裝與配置

安裝偽分布式spark

?安裝偽分布式scala


安裝偽分布式hadoop

安裝 JAVA 環(huán)境

步驟一:下載 JDK 安裝包(jdk-8u152-linuxx64.tar.gz)

官網(wǎng)地址:https://www.oracle.com/java /technologies /javase-jdk8-downloads.html

步驟二:卸載自帶 OpenJDK

[root@master ~]# rpm -qa | grep java

卸載相關(guān)服務(wù),鍵入命令 rpm –e –-nodeps 刪除的包

?[root@master ~]# rpm -qa | grep java

[root@master ~]# java --version

bash: java: 未找到命令

偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

步驟三:安裝 JDK

安裝命令如下,將安裝包解壓到/usr/local/src 目錄下,將安裝包放在了root目錄下

[root@master ~]# tar -zxvf jdk-8u152-linux-x64.tar.gz -C /usr/local/src/

[root@master ~]# ls /usr/local/src/
jdk1.8.0_152

偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

步驟四:設(shè)置 JAVA 環(huán)境變量

[root@master ~]# vi /etc/profile

在文件的最后增加如下兩行:

export JAVA_HOME=/usr/local/src/jdk1.8.0_152

export PATH=$PATH:$JAVA_HOME/bin

執(zhí)行 source 使設(shè)置生效:

[root@master ~]# source /etc/profile

檢查 JAVA 是否可用。

[root@master ~]# echo $JAVA_HOME /usr/local/src/jdk1.8.0_152

[root@master ~]# java -version

java version "1.8.0_152"

Java(TM) SE Runtime Environment (build 1.8.0_152-b16)

Java HotSpot(TM) 64-Bit Server VM (build 25.152-b16, mixed mode)

能夠正常顯示 Java 版本則說明 JDK 安裝并配置成功。

偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

實(shí)現(xiàn)免密登陸

步驟一:創(chuàng)建ssh秘鑰,輸入如下命令,生成公私密鑰

[root@master ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

步驟二:將master公鑰id_dsa復(fù)制到master進(jìn)行公鑰認(rèn)證,實(shí)現(xiàn)本機(jī)免密登陸,測試完exit退出

[root@master ~]# ssh-copy-id -i /root/.ssh/id_dsa.pub master

[root@master ~]# ssh master

[root@master ~]# exit

Hadoop環(huán)境的安裝與配置

步驟一:將/root/runajian下的hadoop-2.7.7.tar.gz壓縮包解壓到/opt目錄下,并將解壓文件改名為hadoop

步驟二:修改環(huán)境變量

[root@master ~]# vim /etc/profile

export HADOOP_HOME=/opt/hadoop

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

[root@master ~]# source /etc/profile?

偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

步驟三:編輯/opt/hadoop/etc/hadoop/hadoop-env.sh文件

[root@master ~]# vi /opt/hadoop/etc/hadoop/hadoop-env.sh

修改配置文件為jdk的安裝路徑:

export JAVA_HOME=/usr/local/src/jdk1.8.0_152
偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

步驟四:編輯/opt/hadoop/etc/hadoop/core-site.xml文件

[root@master ~]# vi /opt/hadoop/etc/hadoop/core-site.xml
修改配置文件為:

<configuration>

<property>
<name>fs.defaultFS</name>
<value>hdfs://master</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop/tmp</value>
</property>
</configuration>

步驟五:編輯/opt/hadoop/etc/hadoop/hdfs-site.xml文件

[root@master ~]#? vi /opt/hadoop/etc/hadoop/hdfs-site.xml

修改配置文件:

<configuration>

<property>
<name>dfs.replication</name>
<value>3</value>
</property>

</configuration>

步驟六:

復(fù)制/opt/hadoop/etc/hadoop/mapred-site.xml.tmplate 名為mapred-site.xml?

[root@master ~]# cp /opt/hadoop/etc/hadoop/mapred-site.xml.template /opt/hadoop/etc/hadoop/mapred-site.xml

編輯/opt/hadoop/etc/hadoop/mapred-site.xml文件

[root@master ~]#?vi /opt/hadoop/etc/hadoop/mapred-site.xml
修改配置為:

<configuration>

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>

步驟七:編輯/opt/hadoop/etc/hadoop/yarn-site.xml文件

[root@master ~]# vi /opt/hadoop/etc/hadoop/yarn-site.xml

修改配置為:

<configuration>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>

</configuration>

?步驟八:編輯/opt/hadoop/etc/hadoop/slaves文件

[root@master ~]# vim /opt/hadoop/etc/hadoop/slaves
偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

步驟九: 格式化hdfs

[root@master ~]#?hdfs namenode -format
偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

?步驟十:啟動集群 jps查看,登錄網(wǎng)頁

[root@master ~]#?start-all.sh

[root@master ~]#?jps
偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

在瀏覽器的地址欄輸入http://master:50070,進(jìn)入頁面可以查看NameNode和DataNode 信息?

偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

安裝偽分布式spark

步驟一:安裝命令如下,將安裝包解壓到/usr/local目錄下,將安裝包放在了root目錄下

[root@master ~]# tar -zxf spark-2.0.0-bin-hadoop2.6.tgz -C /usr/local/

偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

步驟二:復(fù)制和重命名后得到spark-env.sh,打開spark-env.sh添加內(nèi)容

[root@master bin]# cd /usr/local/spark-2.0.0-bin-hadoop2.6/conf/

[root@master conf]# cp spark-env.sh.template spark-env.sh
[root@master conf]# vi spark-env.sh

export JAVA_HOME=/usr/local/src/jdk1.8.0_152
export HADOOP_HOME=/opt/hadoop
export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop
export SPARK_MASTER_IP=master
export SPART_LOCAL_IP=master

偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

步驟三:進(jìn)入spark目錄的/sbin下啟動spark集群,jps查看

[root@master conf]# cd /usr/local/spark-2.0.0-bin-hadoop2.6/sbin/
[root@master sbin]# ./start-all.sh
[root@master sbin]# jps

偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

步驟四:啟動spark-ahell

[root@master ~]# cd /usr/local/spark-2.0.0-bin-hadoop2.6/
[root@master spark-2.0.0-bin-hadoop2.6]# ./bin/spark-shell


偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

步驟五:查看網(wǎng)頁http://master:8080

偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

?安裝偽分布式scala

步驟一:安裝命令如下,將安裝包解壓到/usr/local目錄下,將安裝包放在了root目錄下

[root@master ~]# tar -zxf scala-2.11.8.tgz -C /usr/local

?偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

步驟二:配置scala環(huán)境變量,重新加載配置文件,運(yùn)行scala

[root@master ~]# vim /etc/profile

export SCALA_HOME=/usr/local/scala-2.11.8
export PATH=$PATH:$SCALA_HOME/bin

偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala

?[root@master ~]# source /etc/profile
[root@master ~]# scala
Welcome to Scala 2.11.8 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_152).
Type in expressions for evaluation. Or try :help.

偽分布式hadoop+spark+scala 超詳細(xì)搭建,分布式,hadoop,大數(shù)據(jù),spark,scala文章來源地址http://www.zghlxwxcb.cn/news/detail-859708.html

到了這里,關(guān)于偽分布式hadoop+spark+scala 超詳細(xì)搭建的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Hadoop(偽分布式)+Spark(local模式)搭建Hadoop和Spark組合環(huán)境

    Hadoop(偽分布式)+Spark(local模式)搭建Hadoop和Spark組合環(huán)境

    環(huán)境 使用 Ubuntu 14.04 64位 作為系統(tǒng)環(huán)境(Ubuntu 12.04,Ubuntu16.04 也行,32位、64位均可),請自行安裝系統(tǒng)。 Hadoop版本 : Hadoop 2.7.4 創(chuàng)建hadoop用戶 如果你安裝 Ubuntu 的時候不是用的 \\\"hadoop\\\" 用戶,那么需要增加一個名為 hadoop 的用戶。 首先按 ctrl+alt+t 打開終端窗口,輸入如下命令創(chuàng)

    2023年04月08日
    瀏覽(39)
  • hadoop偽分布式搭建(超詳細(xì))

    hadoop偽分布式搭建(超詳細(xì))

    上一篇文章已經(jīng)為大家介紹了如何在Linux系統(tǒng)上配置java環(huán)境,這為hadoop的集群搭建提供了基礎(chǔ)條件,因?yàn)镠adoop是由Java編寫的 如果還沒有在虛擬機(jī)配置java系統(tǒng)的小伙伴可以先看一下我的第一篇文章:https://blog.csdn.net/beixige/article/details/129112527 接下來是hadoop偽分布搭建的要準(zhǔn)備東

    2024年02月03日
    瀏覽(20)
  • Hadoop 偽分布式搭建(超詳細(xì))

    Hadoop 偽分布式搭建(超詳細(xì))

    Hadoop偽分布式搭建 虛擬機(jī)準(zhǔn)備階段操作 安全設(shè)置 防火墻相關(guān)指令 關(guān)閉關(guān)閉selinux IP設(shè)置 查看機(jī)器IP 修改主機(jī)名 修改IP及主機(jī)名映射 SSH免密登陸 Hadoop偽分布式搭建 JDK配置 解壓 配置環(huán)境變量 Hadoop配置 解壓文件 修改配置文件 配置Hadoop環(huán)境變量 驗(yàn)證環(huán)境變量是否配置成功 格

    2023年04月13日
    瀏覽(61)
  • hadoop偽分布式環(huán)境搭建,完整的詳細(xì)步驟

    hadoop偽分布式環(huán)境搭建,完整的詳細(xì)步驟

    1、VMware14 2、一臺ubtuntu 18 64位 3、主機(jī)名位master 4、ip 地址:192.168.136.31 5、本次實(shí)驗(yàn)需要的安裝包 1、 查看id 地址 2、 關(guān)閉防火墻 命令來關(guān)閉防火墻 命令查看當(dāng)前防火墻狀態(tài) 3、 修改主機(jī)名、 添加主機(jī)映射 修改虛擬機(jī)hosts文件,將ip地址添加進(jìn)來 使用 :wq 保存 測試是否修改

    2024年02月08日
    瀏覽(19)
  • 分布式計(jì)算中的大數(shù)據(jù)處理:Hadoop與Spark的性能優(yōu)化

    大數(shù)據(jù)處理是現(xiàn)代計(jì)算機(jī)科學(xué)的一個重要領(lǐng)域,它涉及到處理海量數(shù)據(jù)的技術(shù)和方法。隨著互聯(lián)網(wǎng)的發(fā)展,數(shù)據(jù)的規(guī)模不斷增長,傳統(tǒng)的計(jì)算方法已經(jīng)無法滿足需求。因此,分布式計(jì)算技術(shù)逐漸成為了主流。 Hadoop和Spark是目前最為流行的分布式計(jì)算框架之一,它們都提供了高

    2024年01月23日
    瀏覽(93)
  • 大數(shù)據(jù)技術(shù)棧-Hadoop3.3.4-完全分布式集群搭建部署-centos7(完全超詳細(xì)-小白注釋版)虛擬機(jī)安裝+平臺部署

    目錄 環(huán)境條件: 1、安裝虛擬機(jī)(已安裝好虛擬機(jī)的可跳轉(zhuǎn)至? 二、安裝JDK與Hadoop) (1)直接新建一臺虛擬機(jī) (2)首次啟用虛擬機(jī),進(jìn)行安裝 一、集群前置環(huán)境搭建(三臺機(jī)器分別設(shè)置hostname、網(wǎng)卡(ip)配置、ssh免密登錄) 1、查看一下本機(jī)與虛擬機(jī)的網(wǎng)卡和ip信息 (1)

    2024年02月06日
    瀏覽(31)
  • 大數(shù)據(jù)內(nèi)容分享(九):Hadoop-生產(chǎn)集群搭建(完全分布式)

    大數(shù)據(jù)內(nèi)容分享(九):Hadoop-生產(chǎn)集群搭建(完全分布式)

    目錄 Hadoop運(yùn)行模式——完全分布式 1、準(zhǔn)備3臺虛擬機(jī)(關(guān)閉防火墻、配置靜態(tài)IP 和 主機(jī)名稱) 2、安裝JDK 和 Hadoop 并配置JDK和Hadoop的環(huán)境變量 3、配置完全分布式集群 4、集群配置 1)集群部署規(guī)劃 2)配置文件說明 3)配置集群 5、集群啟動 與 測試 1)workers的配置 2)啟動集

    2024年02月21日
    瀏覽(24)
  • 大數(shù)據(jù)開發(fā)·關(guān)于虛擬機(jī)Hadoop完全分布式集群搭建教程

    大數(shù)據(jù)開發(fā)·關(guān)于虛擬機(jī)Hadoop完全分布式集群搭建教程

    官網(wǎng)鏈接 進(jìn)入后網(wǎng)站如圖,各位按需下載 官網(wǎng)鏈接 進(jìn)入頁面點(diǎn)擊下載 再根據(jù)我們需要下載的軟件進(jìn)入下載頁面 點(diǎn)擊右側(cè)紅框內(nèi)的免費(fèi)授權(quán)頁面獲取免費(fèi)許可 進(jìn)入后如圖,兩者我們都需要所以都勾選,填寫的郵箱用于接收下載鏈接,下載后進(jìn)行安裝即可 這里先和大家強(qiáng)調(diào)一

    2024年02月07日
    瀏覽(32)
  • 大數(shù)據(jù)開源框架環(huán)境搭建(七)——Spark完全分布式集群的安裝部署

    大數(shù)據(jù)開源框架環(huán)境搭建(七)——Spark完全分布式集群的安裝部署

    前言:七八九用于Spark的編程實(shí)驗(yàn) 大數(shù)據(jù)開源框架之基于Spark的氣象數(shù)據(jù)處理與分析_木子一個Lee的博客-CSDN博客_spark輿情分析 目錄 實(shí)驗(yàn)環(huán)境: 實(shí)驗(yàn)步驟: 一、解壓 二、配置環(huán)境變量:? 三、修改配置文件? 1.修改spark-env.sh配置文件: 2.修改配置文件slaves: 3.分發(fā)配置文件:

    2024年02月11日
    瀏覽(94)
  • ubuntu下Hadoop以及Spark的偽分布式安裝:一

    1.1 安裝前說明: 很多初學(xué)者在安裝的時候會碰到各種各樣的問題,尤其各種版本的搭配問題。所以特意做一個初步安裝的引導(dǎo),希望大家都能一次調(diào)試出來。 經(jīng)過測試,jdk11 + scala2.13.13 + hadoop3.3.6+spark3.5.1,這是暫時來說scalsa2能支持的最完美的搭配。Hadoop能支持到的java最完

    2024年04月23日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包