国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

[Hadoop高可用集群]數(shù)倉工具之Hive的安裝部署(超級(jí)詳細(xì),適用于初學(xué)者)

這篇具有很好參考價(jià)值的文章主要介紹了[Hadoop高可用集群]數(shù)倉工具之Hive的安裝部署(超級(jí)詳細(xì),適用于初學(xué)者)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

[Hadoop]數(shù)倉工具Hive的安裝部署

??作者:喜歡水星記

??系列:Hadoop高可用集群

??收藏:本文記錄我搭建過程供大家學(xué)習(xí)和自己之后復(fù)習(xí),如果對(duì)您有用,希望能點(diǎn)贊收藏加關(guān)注

Hive的簡介

Hive是基于Hadoop的一個(gè)數(shù)據(jù)倉庫工具,可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射為一張數(shù)據(jù)庫表,并提供簡單的sql查詢功能,可以將sql語句轉(zhuǎn)換為MapReduce任務(wù)進(jìn)行運(yùn)行。

最初,Hive是由Facebook開發(fā),后來由Apache軟件基金會(huì)開發(fā),并作為進(jìn)一步將它作為名義下Apache Hive為一個(gè)開源項(xiàng)目。

Hive 建立在Hadoop 基礎(chǔ)之上,Hive 與 Hadoop 緊密集成,其設(shè)計(jì)可快速對(duì) PB 級(jí)數(shù)據(jù)進(jìn)行操作。

Hive的意義就是在業(yè)務(wù)分析中將用戶容易編寫、會(huì)寫的Sql語言轉(zhuǎn)換為復(fù)雜難寫的MapReduce程序,從而大大降低了Hadoop學(xué)習(xí)的門檻,讓更多的用戶可以利用Hadoop進(jìn)行數(shù)據(jù)挖掘分析。

Hive的優(yōu)點(diǎn)

  • Hive 所采用的數(shù)據(jù)可通過批處理快速處理 PB 級(jí)數(shù)據(jù)。

  • Hive 提供非程序員可以使用的熟悉的類似于 SQL 的界面。

  • Hive 可根據(jù)使用者的需求被輕松分發(fā)與擴(kuò)展。

  • Hive支持標(biāo)準(zhǔn)的SQL語法,免去了用戶編寫MapReduce程序的過程,大大減少了公司的開發(fā)成本

  • Hive的出現(xiàn)可以讓那些精通SQL技能、但是不熟悉MapReduce 、編程能力較弱與不擅長Java語言的用戶能夠在HDFS大規(guī)模數(shù)據(jù)集上很方便地利用SQL 語言查詢、匯總、分析數(shù)據(jù)

Hive的架構(gòu)

架構(gòu)圖

hive集群部署,hadoop,hive,大數(shù)據(jù)


Hadoop 和 MapReduce 是 Hive 架構(gòu)的根基

Hive的體系結(jié)構(gòu)可以分為以下幾部分:

  1. 用戶接口主要有三個(gè):CLI,JDBC/ODBC和 Web UI。
    • ①其中,最常用的是CLI,即Shell命令行;
    • ②JDBC/ODBC Client是Hive的Java客戶端,與使用傳統(tǒng)數(shù)據(jù)庫JDBC的方式類似,用戶需要連接至Hive Server;
    • ③Web UI是通過瀏覽器訪問。
  2. Hive將元數(shù)據(jù)存儲(chǔ)在數(shù)據(jù)庫中,如mysql、derby。Hive中的元數(shù)據(jù)包括表的名字,表的列和分區(qū)及其屬性,表的屬性(是否為外部表等),表的數(shù)據(jù)所在目錄等。
  3. 解釋器、編譯器、優(yōu)化器完成HQL查詢語句從詞法分析、語法分析、編譯、優(yōu)化以及查詢計(jì)劃的生成。生成的查詢計(jì)劃存儲(chǔ)在HDFS中,并在隨后有MapReduce調(diào)用執(zhí)行。
  4. Hive的數(shù)據(jù)存儲(chǔ)在HDFS中,大部分的查詢、計(jì)算由MapReduce完成。

安裝Hive

Hive搭建環(huán)境

  • Centos7的操作系統(tǒng)
  • 已安裝完JDK
  • 已搭建Hadoop
  • 已搭建MySQL數(shù)據(jù)庫平臺(tái)

如果沒有安裝可以查看我上一篇文章:

Hadoop海量數(shù)據(jù)存儲(chǔ)與計(jì)算高可用集群部署

==注意:==初學(xué)者最好在完成我上一篇Hadoop集群搭建之后再安裝Hive

軟件版本選用

選用Hive的2.1.1版本,軟件包名apache-hive-2.1.1-bin.tar.gz

Hive工具使用JDBC方式連接MySQL數(shù)據(jù)庫,需要用到MySQL數(shù)據(jù)庫連接工具軟件,選用該軟件的5.1.42版本,軟件包名mysql-connector-java-5.1.42-bin.jar

軟件下載:

提取鏈接
提取碼:0768

Hive工具安裝配置

Hive的安裝過程只需要在Cluster-01主機(jī)的admin用戶下進(jìn)行

在Cluster-01上:

su - admin # 進(jìn)入admin用戶

mkdir setups # 將本次實(shí)驗(yàn)所需要的軟件包上傳至該目錄,之前已經(jīng)上傳 我這里就不上傳了

mkdir hive #創(chuàng)建用于存放Hive相關(guān)文件的目錄

cd ~/hive

mkdir tmp

tar -xzf ~/setups/apache-hive-2.1.1-bin.tar.gz

[root@Cluster-01 ~]# su - admin				# 進(jìn)入admin用戶
Last login: Mon May  1 22:42:23 CST 2023 on pts/0
[admin@Cluster-01 ~]$ mkdir hive			# 創(chuàng)建用于存放Hive相關(guān)文件的目錄
[admin@Cluster-01 ~]$ cd hive/				
[admin@Cluster-01 hive]$ mkdir tmp			# 創(chuàng)建Hive的本地臨時(shí)文件目錄"tmp"
[admin@Cluster-01 hive]$ tar -xzf ~/setups/apache-hive-2.1.1-bin.tar.gz
[admin@Cluster-01 hive]$ ls
apache-hive-2.1.1-bin  tmp

配置Hive相關(guān)的環(huán)境變量

vi ~/.bash_profile

對(duì)配置文件進(jìn)行修改,在文件末尾添加以下內(nèi)容:

#hive environment
HIVE_HOME=/home/admin/hive/apache-hive-2.1.1-bin
PATH=$HIVE_HOME/bin:$PATH
export HIVE_HOME PATH

hive集群部署,hadoop,hive,大數(shù)據(jù)

刷新環(huán)境變量,使其立即生效

source ~/.bash_profile

驗(yàn)證環(huán)境變量是否配置成功

echo $HIVE_HOME

echo $PATH

hive集群部署,hadoop,hive,大數(shù)據(jù)

出現(xiàn)hive則表明環(huán)境變量配置成功

修改Hive相關(guān)配置文件

進(jìn)入Hive的配置文件目錄

cd ~/hive/apache-hive-2.1.1-bin/conf

Hive的配置文件默認(rèn)都被命名為了模板文件,需要對(duì)其進(jìn)行拷貝重命名之后才能使用:

cp hive-env.sh.template hive-env.sh

cp hive-log4j2.properties.template hive-log4j2.properties

cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties

cp hive-default.xml.template hive-site.xml

對(duì)配置文件進(jìn)行修改,找到相關(guān)配置項(xiàng)并對(duì)其值進(jìn)行修改(本個(gè)文件一共有3處修改的)

vi hive-env.sh

找到配置項(xiàng)“HADOOP_HOME”,該項(xiàng)用于指定Hadoop所在的路徑,將其值改為以下內(nèi)容:

HADOOP_HOME=/home/admin/hadoop/hadoop-2.7.3

找到配置項(xiàng)“HIVE_CONF_DIR”,該項(xiàng)用于指定Hive的配置文件所在的路徑,將其值改為以下內(nèi)容:

export HIVE_CONF_DIR=/home/admin/hive/apache-hive-2.1.1-bin/conf

找到配置項(xiàng)“HIVE_AUX_JARS_PATH”,該項(xiàng)用于指定Hive的lib文件所在的路徑,將其值改為以下內(nèi)容:

export HIVE_AUX_JARS_PATH=/home/admin/hive/apache-hive-2.1.1-bin/lib

hive集群部署,hadoop,hive,大數(shù)據(jù)

啟動(dòng)相關(guān)進(jìn)程

在五臺(tái)主機(jī)的admin用戶下執(zhí)行

zkServer.sh status #查看zookeeper的狀態(tài)

zkServer.sh start #啟動(dòng)zookeeper,如果zookeeper已經(jīng)啟動(dòng)則不需要執(zhí)行本條命令

在Cluster-01的admin用戶下執(zhí)行

start-all.sh

在Cluster-02的admin用戶下執(zhí)行

yarn-daemon.sh start resourcemanager

hive集群部署,hadoop,hive,大數(shù)據(jù)

在HDFS中創(chuàng)建Hive相關(guān)目錄并賦權(quán)

本項(xiàng)操作僅在Cluster-01的admin用戶下進(jìn)行

hadoop fs -mkdir -p /user/hive/tmp

hadoop fs -mkdir -p /user/hive/warehouse

hadoop fs -mkdir -p /user/hive/log

hadoop fs -chmod 777 /user/hive/tmp

hadoop fs -chmod 777 /user/hive/warehouse

hadoop fs -chmod 777 /user/hive/log

[admin@Cluster-01 conf]$ hadoop fs -mkdir -p /user/hive/tmp	  #在HDFS中分別創(chuàng)建Hive的臨時(shí)文件目錄tmp
[admin@Cluster-01 conf]$ hadoop fs -mkdir -p /user/hive/warehouse	#在HDFS中分別創(chuàng)建Hive的數(shù)據(jù)存儲(chǔ)目錄“warehouse”
[admin@Cluster-01 conf]$ hadoop fs -mkdir -p /user/hive/log	#在HDFS中分別創(chuàng)建Hive的日志文件目錄“l(fā)og”
[admin@Cluster-01 conf]$ hadoop fs -chmod 777 /user/hive/tmp			# 賦權(quán)
[admin@Cluster-01 conf]$ hadoop fs -chmod 777 /user/hive/warehouse
[admin@Cluster-01 conf]$ hadoop fs -chmod 777 /user/hive/log
[admin@Cluster-01 conf]$ hadoop fs -ls /user/hive			# 查看剛剛創(chuàng)建的目錄
Found 3 items
drwxrwxrwx   - admin supergroup          0 2023-05-08 21:32 /user/hive/log
drwxrwxrwx   - admin supergroup          0 2023-05-08 21:32 /user/hive/tmp
drwxrwxrwx   - admin supergroup          0 2023-05-08 21:32 /user/hive/warehouse

修改相關(guān)配置文件

vi ~/hive/apache-hive-2.1.1-bin/conf/hive-site.xml

找到下列標(biāo)簽“”所標(biāo)識(shí)的屬性項(xiàng)名稱所在位置,修改其標(biāo)簽“”所標(biāo)識(shí)的屬性值部分的內(nèi)容:

第一處: 
<property>
    <name>hive.exec.scratchdir</name>
    <value>/tmp/hive</value>
    
    修改為::		
  <property>
    <name>hive.exec.scratchdir</name>
    <value>/user/hive/tmp</value>

      (只修改了<value>標(biāo)簽里面的值)

hive集群部署,hadoop,hive,大數(shù)據(jù)

第二處:
  <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
    <description>location of default database for the warehouse</description>


修改為::
  <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
    <description>location of default database for the warehouse</description>

注意:這里有的人可能不需要修改 

hive集群部署,hadoop,hive,大數(shù)據(jù)

第三處:
  <property>
    <name>hive.querylog.location</name>
    <value>${system:java.io.tmpdir}/${system:user.name}</value>
    <description>Location of Hive run time structured log file</description>

      修改為:::
        <property>
    <name>hive.querylog.location</name>
    <value>/user/hive/log</value>
    <description>Location of Hive run time structured log file</description>
		(只修改了<value>標(biāo)簽里面的值)

hive集群部署,hadoop,hive,大數(shù)據(jù)

小技巧:該文檔內(nèi)容較多,可以在編輯器內(nèi)使用命令“/關(guān)鍵字”直接進(jìn)行搜索,使用快捷鍵“n”可以切換到下一個(gè)關(guān)鍵字的所在位置。

創(chuàng)建hive元數(shù)據(jù)數(shù)據(jù)庫

本項(xiàng)的所有操作步驟使用五臺(tái)主機(jī)的用戶root進(jìn)行,5臺(tái)都要操作

在MySQL數(shù)據(jù)庫SQL服務(wù)節(jié)點(diǎn)Cluster-04中創(chuàng)建一個(gè)數(shù)據(jù)庫“hive”用于存放Hive的元數(shù)據(jù),該數(shù)據(jù)庫的用戶名和密碼均為“hive”,數(shù)據(jù)庫名、用戶名、密碼均可以自行設(shè)定,但需要與Hive配置文件中的內(nèi)容相對(duì)應(yīng),連接MySQL數(shù)據(jù)庫:

啟動(dòng)MySQL:

將五臺(tái)主機(jī)切換到root用戶

su - root (五臺(tái)都要執(zhí)行)

在Cluster-01執(zhí)行:

ndb_mgmd -f /usr/local/mysql/etc/config.ini

在Cluster-02,03 執(zhí)行

ndbd

在Cluster-04,05執(zhí)行

service mysql start

執(zhí)行完后查看連接狀態(tài)

ndb_mgm -e show

hive集群部署,hadoop,hive,大數(shù)據(jù)

進(jìn)入控制臺(tái)

在Cluster-04的root用戶下執(zhí)行

mysql -hCluster-04 -uroot -pmysqlabc

在控制臺(tái)執(zhí)行以下命令進(jìn)行數(shù)據(jù)庫的創(chuàng)建:

CREATE DATABASE hive;

USE hive;

CREATE USER ‘hive’@‘%’ IDENTIFIED BY ‘hive’;

GRANT ALL ON hive.* TO ‘hive’@‘%’;

FLUSH PRIVILEGES;

show databases;

quit;

mysql> CREATE DATABASE hive;			# 創(chuàng)建數(shù)據(jù)庫hive
Query OK, 1 row affected (0.05 sec)

mysql> USE hive;						# 切換到新創(chuàng)建的hive數(shù)據(jù)庫
Database changed
mysql> CREATE USER 'hive'@'%' IDENTIFIED BY 'hive';		# 創(chuàng)建數(shù)據(jù)庫用戶hive
Query OK, 0 rows affected (0.00 sec)

mysql> GRANT ALL ON hive.* TO 'hive'@'%';    # 設(shè)置hive數(shù)據(jù)庫的訪問權(quán)限,hive用戶擁有所有操作權(quán)限并支持遠(yuǎn)程訪問
Query OK, 0 rows affected (0.00 sec)

mysql> FLUSH PRIVILEGES;					# 刷新數(shù)據(jù)庫權(quán)限信息
Query OK, 0 rows affected (0.00 sec)

mysql> show databases;						# 顯示數(shù)據(jù)庫
+--------------------+
| Database           |
+--------------------+
| information_schema |
| hive               |
| mysql              |
| ndbinfo            |
| performance_schema |
| sys                |
| test               |
+--------------------+
7 rows in set (0.00 sec)

mysql> quit;				# 退出數(shù)據(jù)庫控制臺(tái)
Bye

添加MySQL連接的相關(guān)配置信息

本項(xiàng)僅在Cluster-01的admin用戶下進(jìn)行

vi ~/hive/apache-hive-2.1.1-bin/conf/hive-site.xml

找到下列標(biāo)簽“”所標(biāo)識(shí)的屬性項(xiàng)名稱所在位置,修改其標(biāo)簽“”所標(biāo)識(shí)的屬性值部分的內(nèi)容:

將:
 <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:derby:;databaseName=metastore_db;create=true</value>
    <description>

        修改為:::
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://Cluster-04:3306/hive?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8&amp;useSSL=false</value>
    <description>

        只需要修改<value>標(biāo)簽里面的內(nèi)容即可

hive集群部署,hadoop,hive,大數(shù)據(jù)

<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>org.apache.derby.jdbc.EmbeddedDriver</value>
    <description>Driver class name for a JDBC metastore</description>
  </property>
修改為:
 <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
  </property>

hive集群部署,hadoop,hive,大數(shù)據(jù)

將:
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>APP</value>
    <description>Username to use against metastore database</description>
  </property>
修改為:
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>hive</value>
    <description>Username to use against metastore database</description>
  </property>

hive集群部署,hadoop,hive,大數(shù)據(jù)

將:
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>mine</value>
    <description>password to use against metastore database</description>
  </property>
修改為:
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>hive</value>
    <description>password to use against metastore database</description>
  </property>

hive集群部署,hadoop,hive,大數(shù)據(jù)

將MySQL的數(shù)據(jù)庫連接工具包添加到Hive的“lib”目錄下

cp -v ~/setups/mysql-connector-java-5.1.42-bin.jar ~/hive/apache-hive-2.1.1-bin/lib

添加MySQL連接的相關(guān)配置信息

vi ~/hive/apache-hive-2.1.1-bin/conf/hive-site.xml

在編輯器中使用快捷鍵“:”進(jìn)入到編輯器的命令模式,也稱為末行模式,然后使用命令

%s#${system:java.io.tmpdir}#/home/admin/hive/tmp#g
%s#${system:user.name}#${user.name}#g

Hive初始化

在Cluster-01的admin用戶下進(jìn)行

schematool -initSchema -dbType mysql

hive集群部署,hadoop,hive,大數(shù)據(jù)

刪除hive中$HIVE_HOME/lib下面的log4j-slf4j-impl-2.4.1.jar包

cd $HIVE_HOME/lib

rm -rf log4j-slf4j-impl-2.4.1.jar

為了防止與Hadoop中的jar包slf4j-log4j12-1.7.10.jar沖突

Hive工具啟動(dòng)和驗(yàn)證

本項(xiàng)步驟只在中Cluster-01主機(jī)admin用戶上進(jìn)行操作即可

進(jìn)入hive控制臺(tái)

hive

查看數(shù)據(jù)庫

show databases;

退出

quit;文章來源地址http://www.zghlxwxcb.cn/news/detail-752361.html

簡單練習(xí)

在Cluster-01的admin用戶下

基本命令

show databases; # 顯示數(shù)據(jù)庫信息

create database test; # 創(chuàng)建一個(gè)名為test的數(shù)據(jù)庫

use test; # 使用剛剛創(chuàng)建的test庫

show tables; # 顯示當(dāng)前的表

進(jìn)入hive控制臺(tái)

hive

創(chuàng)建表及加載數(shù)據(jù)

create table student1 (
id int comment 'id of student1',
name string comment 'name of student1',
age int comment 'age of student1',
gender string comment 'sex of student1',
addr string
)    
comment 'this is a demo'
row format delimited fields terminated by '\t';

查看表

desc student1;

hive集群部署,hadoop,hive,大數(shù)據(jù)

在任意一臺(tái)主機(jī)的root用戶下,我這里使用Cluster-04的root進(jìn)入MySQL

mysql -hCluster-04 -uroot -pmysqlabc

(注意:mysqlabc 是我自己設(shè)置的密碼)

進(jìn)入mysql控制臺(tái)之后,調(diào)用hive的庫

use hive;

查看剛剛創(chuàng)建的表信息

select * from TBLS;

hive集群部署,hadoop,hive,大數(shù)據(jù)

退出控制臺(tái)

quit;

到了這里,關(guān)于[Hadoop高可用集群]數(shù)倉工具之Hive的安裝部署(超級(jí)詳細(xì),適用于初學(xué)者)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • hadoop集群搭建+hive安裝

    hadoop集群搭建+hive安裝

    VMware-workstation:VMware-workstation-full-16.2.3 ubuntu:ubuntu-21.10 hadoop:hadoop2.7.2 mysql:mysql-connector-java-8.0.19 jdk:jdk-8u91-linux-x64.tar(注意要是linux版本的,因?yàn)槭窃趌inux系統(tǒng)中創(chuàng)建虛擬機(jī)) hive:hive1.2.1 小技巧: 右鍵單擊可以paste 1.選擇典型即可 2.將ubuntu鏡像文件導(dǎo)入: 3.用戶名要記住

    2024年02月05日
    瀏覽(19)
  • 基于 HBase & Phoenix 構(gòu)建實(shí)時(shí)數(shù)倉(1)—— Hadoop HA 安裝部署

    基于 HBase & Phoenix 構(gòu)建實(shí)時(shí)數(shù)倉(1)—— Hadoop HA 安裝部署

    目錄 一、主機(jī)規(guī)劃 二、環(huán)境準(zhǔn)備 1. 啟動(dòng) NTP 時(shí)鐘同步 2. 修改 hosts 文件 3. 配置所有主機(jī)間 ssh 免密 4. 修改用戶可打開文件數(shù)與進(jìn)程數(shù)(可選) 三、安裝 JDK 四、安裝部署?Zookeeper 集群 1. 解壓、配置環(huán)境變量 2. 創(chuàng)建配置文件 3. 創(chuàng)建新的空 ZooKeeper 數(shù)據(jù)目錄和事務(wù)日志目錄 4

    2024年03月10日
    瀏覽(23)
  • HadoopHA模式(由于Hadoop的HA模式是在Hadoop完全分布式基礎(chǔ)上,利用zookeeper等協(xié)調(diào)工具配置的高可用的Hadoop集群模式)

    HadoopHA模式(由于Hadoop的HA模式是在Hadoop完全分布式基礎(chǔ)上,利用zookeeper等協(xié)調(diào)工具配置的高可用的Hadoop集群模式)

    目錄 1.前期準(zhǔn)備 1.1.hadoop-3.1.3.tar.gz,jdk-8u212-linux-x64.tar.gz,apache-zookeeper-3.5.7-bin.tar.gz三個(gè)包提取碼:k5y6 2.解壓安裝包,配置環(huán)境變量 3. 將三個(gè)節(jié)點(diǎn)分別命名為master、slave1、slave2并做免密登錄 免密在前面Hadoop完全分布式搭建說過,這里不再贅述 4.搭建zookeeper集群 ?根據(jù)配置的

    2024年02月04日
    瀏覽(24)
  • Hadoop 3.0.0的集群搭建和Hive 3.1.3的安裝

    Hadoop 3.0.0的集群搭建和Hive 3.1.3的安裝

    Hi,朋友們,我們又見面了,這一次我給大家?guī)淼氖荋adoop集群搭建及Hive的安裝。 說明一下,網(wǎng)上有很多的教程,為什么我還要水? 第一,大多數(shù)的安裝都是很順利的,沒有疑難解答。 第二,版本問題,網(wǎng)上的搭建在3以前的比較多。 第三,我想給出一個(gè)更簡潔的安裝教程,

    2024年02月03日
    瀏覽(14)
  • Hadoop集群安裝部署

    Hadoop集群安裝部署

    目錄 Hadoop集群安裝部署 1、集群環(huán)境準(zhǔn)備 2、建立免密通道 3、集群時(shí)間同步 4、jdk1.8安裝 5、hadoop安裝部署 6、Hadoop配置文件配置 7、格式化操作 8、啟動(dòng)hadoop集群 啟動(dòng)HDFS集群: 啟動(dòng)YARN集群 9、訪問HDFS的web頁面(端口9870) ?10、訪問Hadoop的web頁面(node1:8088) ?11、HDFS一些命令

    2024年02月05日
    瀏覽(20)
  • (最新版本)hive4.0.0 + hadoop3.3.4 集群安裝(無坑版)-大數(shù)據(jù)學(xué)習(xí)系列(一)

    (最新版本)hive4.0.0 + hadoop3.3.4 集群安裝(無坑版)-大數(shù)據(jù)學(xué)習(xí)系列(一)

    網(wǎng)上的找的文檔大多殘缺不靠譜,所以我整理了一份安裝最新版本的hive4..0.0+hadoop3.3.4的學(xué)習(xí)環(huán)境,可以提供大家安裝一個(gè)完整的hive+hadoop的環(huán)境供學(xué)習(xí)。 由于在公司擔(dān)任大數(shù)據(jù)的培訓(xùn)工作后續(xù)還會(huì)更新一些基礎(chǔ)的文章,希望能幫助到大家。 機(jī)器信息 Hostname k8s-master k8s-node1 k8

    2024年02月06日
    瀏覽(32)
  • hadoop3.3.4集群安裝部署

    hadoop3.3.4集群安裝部署

    一、環(huán)境準(zhǔn)備:3臺(tái)centos7服務(wù)器 ? ? ? ? 修改hosts(所有服務(wù)器都需要修改) ? ? ? ? ? 修改主機(jī)名,cdh1為主機(jī)名,根據(jù)自己定義 ? ? ? ? 安裝遠(yuǎn)程同步工具rsync,用于服務(wù)器間同步配置文件 ? ? ? ? 設(shè)置時(shí)間同步,如果時(shí)間相差過大啟動(dòng)會(huì)報(bào)ClockOutOfSyncException異常,默認(rèn)是

    2023年04月08日
    瀏覽(23)
  • 數(shù)倉知識(shí)11:Hadoop生態(tài)及Hive、HBase、Impala、HDFS之間的關(guān)系

    數(shù)倉知識(shí)11:Hadoop生態(tài)及Hive、HBase、Impala、HDFS之間的關(guān)系

    Hive、HBase、Impala、HDFS是Hadoop生態(tài)體系中常用的開源產(chǎn)品,各個(gè)產(chǎn)品間是一個(gè)什么樣的關(guān)系,許多人都搞不清楚,本文將進(jìn)行研究分析。 Hadoop生態(tài) 在了解Hive、HBase、Impala、和HDFS之前,先熟悉一下Hadoop的生態(tài)。 Apache Hadoop軟件庫是一個(gè)框架,允許使用簡單的編程模型在計(jì)算機(jī)集

    2023年04月08日
    瀏覽(34)
  • 大數(shù)據(jù)開發(fā)之電商數(shù)倉(hadoop、flume、hive、hdfs、zookeeper、kafka)

    大數(shù)據(jù)開發(fā)之電商數(shù)倉(hadoop、flume、hive、hdfs、zookeeper、kafka)

    1.1.1 數(shù)據(jù)倉庫概念 1、數(shù)據(jù)倉庫概念: 為企業(yè)制定決策,提供數(shù)據(jù)支持的集合。通過對(duì)數(shù)據(jù)倉庫中數(shù)據(jù)的分析,可以幫助企業(yè),改進(jìn)業(yè)務(wù)流程、控制成本,提高產(chǎn)品質(zhì)量。 數(shù)據(jù)倉庫并不是數(shù)據(jù)的最終目的地,而是為數(shù)據(jù)最終的目的地做好準(zhǔn)備,這些準(zhǔn)備包括對(duì)數(shù)據(jù)的:清洗、

    2024年01月22日
    瀏覽(120)
  • Spark-3.2.4 高可用集群安裝部署詳細(xì)圖文教程

    Spark-3.2.4 高可用集群安裝部署詳細(xì)圖文教程

    目錄 一、Spark 環(huán)境搭建-Local 1.1 服務(wù)器環(huán)境? 1.2 基本原理? 1.2.1?Local 下的角色分布 1.3 搭建? 1.3.1 安裝 Anaconda? 1.3.1.1 添加國內(nèi)阿里源? 1.3.2 創(chuàng)建 pyspark 環(huán)境? 1.3.3 安裝 spark 1.3.4 添加環(huán)境變量? 1.3.5 啟動(dòng) spark? 1.3.5.1 bin/pyspark? 1.3.5.2?WEB UI (4040) 1.3.5.3?spark-shell? 1.3.5.4?bin/sp

    2024年02月07日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包