国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

單機(jī)搭建hadoop環(huán)境(包括hdfs、yarn、hive)

這篇具有很好參考價(jià)值的文章主要介紹了單機(jī)搭建hadoop環(huán)境(包括hdfs、yarn、hive)。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

單機(jī)可以搭建偽分布式hadoop環(huán)境,用來測試和開發(fā)使用,hadoop包括:

hdfs服務(wù)器,

yarn服務(wù)器,yarn的前提是hdfs服務(wù)器,

在前面兩個(gè)的基礎(chǔ)上,課可以搭建hive服務(wù)器,不過hive不屬于hadoop的必須部分。

過程不要想的太復(fù)雜,其實(shí)挺簡單,這里用最糙最快最直接的方法,在我的單節(jié)點(diǎn)虛擬機(jī)上,搭建一個(gè)hdfs+yarn+hive:

首先,要配置好Java的JAVA_HOME和PATH(etc/hadoop/hadoop-env.sh里的JAVA_HOME要改為本機(jī)的JAVA_HOME),還是有ssh本機(jī)的免密碼登錄。

安裝配置啟動hdfs服務(wù)器:

然后,下載hadoop安裝包,這個(gè)包就包括了hdfs服務(wù)器和yarn服務(wù)器的執(zhí)行文件和配置腳本。解壓后,先配置 hdfs 服務(wù)器端,主要是兩個(gè)配置文件:core-site.xml 和 hdfs-site.xml 這個(gè)site我估計(jì)就是服務(wù)器端配置的意思。我是用root用戶配置和執(zhí)行的:

單機(jī)搭建hadoop環(huán)境(包括hdfs、yarn、hive),大數(shù)據(jù),hadoop,大數(shù)據(jù),分布式

etc/hadoop/core-site.xml (這里9000是hfds服務(wù)器,監(jiān)聽端口號,這里要用自己的IP地址,如果用127.0.0.1,遠(yuǎn)程集群連不進(jìn)來)

<configuration>
? ? <property>
? ? ? ? <name>fs.defaultFS</name>
? ? ? ? <value>hdfs://172.32.155.57:9000</value>
? ? </property>

</configuration>

etc/hadoop/hdfs-site.xml (dfs.namenode.name.dir 和 dfs.namenode.data.dir)是服務(wù)器上存儲元數(shù)據(jù)和數(shù)據(jù)的目錄。

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>

    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/mnt/disk01/hadoop/dfs/name</value>
    </property>

    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/mnt/disk01/hadoop/dfs/data</value>
    </property>

</configuration>

對上面配置的目錄進(jìn)行初始化/格式化:

 $ bin/hdfs namenode -format

執(zhí)行sbin里的start-dfs.sh就可以啟動hdfs文件系統(tǒng)服務(wù)器了,可以jps查看一下有哪些java進(jìn)程:

單機(jī)搭建hadoop環(huán)境(包括hdfs、yarn、hive),大數(shù)據(jù),hadoop,大數(shù)據(jù),分布式

如果在本地(服務(wù)器上),執(zhí)行

hdfs dfs -ls /

就可以查看hdfs上的文件了,還可以用其它命令操作hdfs:

hdfs dfs -mkdir /user/root
hdfs dfs -mkdir input

安裝配置啟動yarn服務(wù)器:

上面只是配置了hdfs服務(wù)器,要想跑hive或mapreduce,還需要配置和啟動調(diào)度器:yarn

etcd/hadoop/mapred-site.xml?

<configuration>
   <property>
      <name>mapreduce.framework.name</name>
      <value>yarn</value>
   </property>

   <property>
        <name>mapreduce.application.classpath</name>
        <value>$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*</value>
    </property>
</configuration>

etcd/hadoop/yarn-site.xml (這里 yarn.resourcemanager.hostname 要寫自己的IP,yarn.nodemanager.env-whitelist 設(shè)置Container的能繼承NodeManager的哪些環(huán)境變量)

<configuration>

<!-- Site specific YARN configuration properties -->

    <property>
      <name>yarn.resourcemanager.hostname</name>
      <value>172.32.155.57</value>
    </property>

   <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
   </property>

    <property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HOME</value>
    </property>

</configuration>

MapReducer執(zhí)行時(shí),會在NodeManager上創(chuàng)建Container,在Container上執(zhí)行Task(JAVA程序),該程序需要環(huán)境變量(如:JDK、HADOOP_MAPRED_HOME…),該參數(shù)就是 設(shè)置Container的能繼承NodeManager的哪些環(huán)境變量。

-- 引自?

HADOOP_MAPRED_HOME=${full path of your hadoop distribution directory}-CSDN博客

啟動yarn

start-yarn.sh
[root@neoap082 hadoop-3.3.6]# jps
430131 Jps
422691 ResourceManager
416862 NameNode
417388 SecondaryNameNode
422874 NodeManager
417082 DataNode

?執(zhí)行 mapreduce 任務(wù)(java程序)

  $ bin/hdfs dfs -mkdir -p /user/root
  $ bin/hdfs dfs -mkdir input
  $ bin/hdfs dfs -put etc/hadoop/*.xml input
  $ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar grep input output 'dfs[a-z.]+'
  $ bin/hdfs dfs -cat output/*

安裝配置啟動hive:

hive的元數(shù)據(jù)一般使用mysql存儲,也可以使用hive自帶的數(shù)據(jù)庫derby,如果使用derby,那么hive的安裝、配置、啟動非常簡單:

先要單獨(dú)下載hive:

單機(jī)搭建hadoop環(huán)境(包括hdfs、yarn、hive),大數(shù)據(jù),hadoop,大數(shù)據(jù),分布式

不需要修改任何hive的配置文件,就是最簡情況下,只要配置好hdfs和yarn,不需要配置hive。

但是,第一次使用以前,需要初始化 hive:

hdfs dfs -mkdir -p /user/hive/warehouse
bin/schematool -dbType derby -initSchema

初始化的數(shù)據(jù)在metastore_db里,要重新初始化只要?jiǎng)h除這個(gè)目錄,再執(zhí)行上面的命令即可,有些奇怪的問題可以這樣解決。

然后直接執(zhí)行 bin目錄下的hive,這樣就進(jìn)入了hive命令行,也啟動了hive服務(wù)器,這種只能用來學(xué)習(xí)測試,不過也足夠了。

CREATE TABLE basic_data_textfile
(
? ? k00 INT,
? ? k01 DATE,
? ? k02 BOOLEAN,
? ? k03 TINYINT,
? ? k04 SMALLINT,
? ? k05 INT ? ?,
? ? k06 BIGINT ,
? ? k07 BIGINT,
? ? k08 FLOAT ?,
? ? k09 DOUBLE ,
? ? k10 DECIMAL(9,1) ,
? ? k11 DECIMAL(9,1) ,
? ? k12 TIMESTAMP,
? ? k13 DATE ,
? ? k14 TIMESTAMP,
? ? k15 CHAR(2),
? ? k16 STRING,
? ? k17 STRING ,
? ? k18 STRING ??
)?
row format delimited fields terminated by '\|' ;

# 從本地文件加載

load data local inpath '/opt/doris_2.0/basic_data.csv' into table basic_data;

# 從hdfs路徑加載

load data inpath '/user/root/basic_data.csv' into table basic_data_lzo;

?hive表數(shù)據(jù)是一個(gè)hdfs目錄下的文件,可以設(shè)置這些文件存儲時(shí)的格式和壓縮算法,例如,下面的basic_data_lzop表一lzo壓縮,壓縮文件格式為lzop:

set hive.exec.compress.output=true;
set mapred.output.compression.codec=com.hadoop.compression.lzo.LzopCodec;
set io.compression.codecs=com.hadoop.compression.lzo.LzopCodec;

CREATE TABLE basic_data_lzop
(
? ? k00 INT,
? ? k01 DATE,
? ? k02 BOOLEAN,
? ? k03 TINYINT,
? ? k04 SMALLINT,
? ? k05 INT ? ?,
? ? k06 BIGINT ,
? ? k07 BIGINT,
? ? k08 FLOAT ?,
? ? k09 DOUBLE ,
? ? k10 DECIMAL(9,1) ,
? ? k11 DECIMAL(9,1) ,
? ? k12 TIMESTAMP,
? ? k13 DATE ,
? ? k14 TIMESTAMP,
? ? k15 CHAR(2),
? ? k16 STRING,
? ? k17 STRING ,
? ? k18 STRING ??
)?
row format delimited fields terminated by '\|' ;

insert into basic_data_lzop select * from basic_data;

?basic_data_orc_snappy 表以orc格式存儲,數(shù)據(jù)塊以snappy壓縮:

CREATE TABLE basic_data_orc_snappy
(
? ? k00 INT,
? ? k01 DATE,
? ? k02 BOOLEAN,
? ? k03 TINYINT,
? ? k04 SMALLINT,
? ? k05 INT ? ?,
? ? k06 BIGINT ,
? ? k07 BIGINT,
? ? k08 FLOAT ?,
? ? k09 DOUBLE ,
? ? k10 DECIMAL(9,1) ,
? ? k11 DECIMAL(9,1) ,
? ? k12 TIMESTAMP,
? ? k13 DATE ,
? ? k14 TIMESTAMP,
? ? k15 CHAR(2),
? ? k16 STRING,
? ? k17 STRING ,
? ? k18 STRING ??
)?
row format delimited fields terminated by '\|'?
stored as orc tblproperties ("orc.compress"="SNAPPY");

insert into basic_data_orc_snappy select * from basic_data_textfile;文章來源地址http://www.zghlxwxcb.cn/news/detail-829092.html

到了這里,關(guān)于單機(jī)搭建hadoop環(huán)境(包括hdfs、yarn、hive)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 三臺異構(gòu)服務(wù)器搭建hadoop HA集群史上最詳細(xì)方案(HDFS+YARN)

    三臺異構(gòu)服務(wù)器搭建hadoop HA集群史上最詳細(xì)方案(HDFS+YARN)

    ?一、系統(tǒng)基礎(chǔ)服務(wù)配置 主機(jī)名 IP 操作系統(tǒng) CPU 內(nèi)存 磁盤 Hive01 10.86.102.104 Centos 7.9.2009 Xeon 4208 X16 192G 46T Hive02 10.86.102.102 Centos 7.9.2009 Xeon 4208 X16 192G 46T Hive03 10.86.102.105 Centos 7.9.2009 Xeon 8260 X48 256G ? ? ? ? 11T 最終組成的是一個(gè)雙副本56T的集群,設(shè)置YARN內(nèi)存共400GB(可調(diào)) 3臺服務(wù)

    2024年02月07日
    瀏覽(19)
  • Spark單機(jī)偽分布式環(huán)境搭建、完全分布式環(huán)境搭建、Spark-on-yarn模式搭建

    Spark單機(jī)偽分布式環(huán)境搭建、完全分布式環(huán)境搭建、Spark-on-yarn模式搭建

    搭建Spark需要先配置好scala環(huán)境。三種Spark環(huán)境搭建互不關(guān)聯(lián),都是從零開始搭建。 如果將文章中的配置文件修改內(nèi)容復(fù)制粘貼的話,所有配置文件添加的內(nèi)容后面的注釋記得刪除,可能會報(bào)錯(cuò)。保險(xiǎn)一點(diǎn)刪除最好。 上傳安裝包解壓并重命名 rz上傳 如果沒有安裝rz可以使用命

    2024年02月06日
    瀏覽(105)
  • 大數(shù)據(jù)環(huán)境搭建 Hadoop+Hive+Flume+Sqoop+Azkaban

    大數(shù)據(jù)環(huán)境搭建 Hadoop+Hive+Flume+Sqoop+Azkaban

    Hadoop:3.1.0 CentOS:7.6 JDK:1.8 這里網(wǎng)上教程很多,就不貼圖了 【內(nèi)存可以盡量大一些,不然Hive運(yùn)行時(shí)內(nèi)存不夠】 創(chuàng)建tools目錄,用于存放文件安裝包 將Hadoop和JDK的安裝包上傳上去 創(chuàng)建server目錄,存放解壓后的文件 解壓jdk 配置環(huán)境變量 配置免密登錄 配置映射,配置ip地址和

    2024年02月09日
    瀏覽(24)
  • Hadoop——Windows系統(tǒng)下Hadoop單機(jī)環(huán)境搭建

    Hadoop——Windows系統(tǒng)下Hadoop單機(jī)環(huán)境搭建

    為了便于開發(fā),我在本地Windows系統(tǒng)進(jìn)行Hadoop搭建。 我使用的版本:hadoop-2.7.0。其他版本也可,搭建流程基本一樣,所以參考這個(gè)教程一般不會有錯(cuò)。 1、下載安裝包和插件 安裝包hadoop-2.7.0.tar.gz 必要插件winutils-master 2、解壓安裝包 使用管理員身份運(yùn)行cmd,到安裝包對應(yīng)目錄下

    2024年02月09日
    瀏覽(23)
  • 【云計(jì)算平臺】Hadoop單機(jī)模式環(huán)境搭建

    【云計(jì)算平臺】Hadoop單機(jī)模式環(huán)境搭建

    接上一篇博客 點(diǎn)我跳轉(zhuǎn)到虛擬機(jī)搭建,配置好虛擬機(jī)環(huán)境后進(jìn)行hadoop單機(jī)模式的部署,我的云計(jì)算課程中只要求了簡單的單機(jī)模式部署,如果有精力的話,應(yīng)該會把偽分布式部署也簡單地記錄一下 Apache Hadoop 項(xiàng)目為可靠,可擴(kuò)展的分布式計(jì)算開發(fā)開源軟件;Hadoop軟件庫是一個(gè)

    2024年02月02日
    瀏覽(21)
  • docker本地搭建spark yarn hive環(huán)境

    ? 為了學(xué)習(xí)大數(shù)據(jù)處理相關(guān)技術(shù),需要相關(guān)軟件環(huán)境作為支撐實(shí)踐的工具。而這些組件的部署相對繁瑣,對于初學(xué)者來說不夠友好。本人因?yàn)楣ぷ髦猩婕暗皆摬糠謨?nèi)容,通過參考網(wǎng)上的資料,經(jīng)過幾天摸索,實(shí)現(xiàn)了既簡單又快捷的本地環(huán)境搭建方法。特寫下該文章,加以記錄

    2024年03月10日
    瀏覽(23)
  • HDFS 跨集群數(shù)據(jù)同步(hive,hadoop)

    兩個(gè)不同的HDFS 集群數(shù)據(jù)遷移( A集群的數(shù)據(jù) - B 集群) 采用的是 SHELL 腳本 ?按表進(jìn)行; 日期分區(qū)進(jìn)行; #!/bin/bash ##################### #創(chuàng)建人:DZH #創(chuàng)建日期: 2020-04 #內(nèi)容: 數(shù)據(jù)遷移 ##################### ##################################### [ \\\"$#\\\" -ne 0 ] FILE=$1 path=$(cd `dirname $0`; pwd) ############## 獲取執(zhí)

    2024年04月27日
    瀏覽(104)
  • hadoop3.3.1單機(jī)版環(huán)境搭建詳細(xì)流程記錄

    hadoop3.3.1單機(jī)版環(huán)境搭建詳細(xì)流程記錄

    安裝vim即可; 按“o”進(jìn)入編輯模式; 編輯完內(nèi)容后,“esc”--“:”--\\\"wq\\\"--回車,執(zhí)行保存并退出。 點(diǎn)\\\"i\\\"或者\(yùn)\\"o\\\"進(jìn)入編輯模式; 編輯完后,點(diǎn)\\\"Esc\\\"--\\\":\\\"--\\\"wq\\\",回車,保存退出。 生成公鑰和私鑰;(一直點(diǎn)下去即可) 授權(quán)是單向的; 8.1、方法一: 進(jìn)入 ~/.ssh 目錄下,查看生成

    2024年02月09日
    瀏覽(19)
  • 頭歌Hadoop 開發(fā)環(huán)境搭建及HDFS初體驗(yàn)(第2關(guān):配置開發(fā)環(huán)境 - Hadoop安裝與偽分布式集群搭建)

    頭歌Hadoop 開發(fā)環(huán)境搭建及HDFS初體驗(yàn)(第2關(guān):配置開發(fā)環(huán)境 - Hadoop安裝與偽分布式集群搭建)

    注: 1 頭歌《Hadoop 開發(fā)環(huán)境搭建及HDFS初體驗(yàn)》三關(guān)在一個(gè)實(shí)驗(yàn)環(huán)境下,需要三關(guān)從前往后按順序評測,跳關(guān)或者實(shí)驗(yàn)環(huán)境結(jié)束后重新打開 不能單獨(dú)評測通過 2 復(fù)制粘貼請用右鍵粘貼,CTRL+C/V不管用哦~ 第1關(guān):配置開發(fā)環(huán)境 - JavaJDK的配置: 解壓: 配置環(huán)境變量: 細(xì)節(jié): vi

    2024年02月08日
    瀏覽(352)
  • Hadoop——Hive運(yùn)行環(huán)境搭建

    Hadoop——Hive運(yùn)行環(huán)境搭建

    Windows:10? ? ? ? ?JDK:1.8? ? ? ? ?Apache Hadoop:2.7.0 Apache Hive:2.1.1? ? ? ? ?Apache Hive src:1.2.2? ? ? ? ?MySQL:5.7 1、下載 Hadoop搭建 Apache Hive 2.1.1:https://archive.apache.org/dist/hive/hive-2.1.1/apache-hive-2.1.1-bin.tar.gz Apache Hive 1.2.2 src:https://archive.apache.org/dist/hive/hive-1.2.2/apache-hive-1.

    2024年02月16日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包