国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

搭建HBase偽分布式集群

這篇具有很好參考價(jià)值的文章主要介紹了搭建HBase偽分布式集群。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

1. Install zookeeper
1) download zookeeper from https://zookeeper.apache.org/releases.html#download
2) extract binary

$ tar xvf apache-zookeeper-3.8.1-bin.tar.gz -C ~/bigdata/

3) configurate zoo.cfg

$ cd ~/bigdata/zookeeper-3.8.1/conf
$ cp zoo_sample.cfg zoo.cfg
$ vi zoo.cfg    # edit zoo.cfg
$ diff -u zoo_sample.cfg zoo.cfg
--- zoo_sample.cfg	2023-01-26 00:31:05.000000000 +0800
+++ zoo.cfg	2023-06-16 18:19:01.510722864 +0800
@@ -9,7 +9,7 @@
 # the directory where the snapshot is stored.
 # do not use /tmp for storage, /tmp here is just 
 # example sakes.
-dataDir=/tmp/zookeeper
+dataDir=/home/sunxo/bigdata/zookeeper-3.8.1/tmp
 # the port at which the clients will connect
 clientPort=2181
 # the maximum number of client connections.
@@ -25,7 +25,7 @@
 #autopurge.snapRetainCount=3
 # Purge task interval in hours
 # Set to "0" to disable auto purge feature
-#autopurge.purgeInterval=1
+autopurge.purgeInterval=1

4) start zookeeper

$ cd ~/bigdata/zookeeper-3.8.1
$ mkdir tmp    # as config in zoo.cfg
$ bin/zkServer.sh start
ZooKeeper JMX enabled by default
Using config: /root/bigdata/zookeeper-3.8.1/bin/../conf/zoo.cfg
Starting zookeeper ... STARTED

5) try zookeeper

$ netstat -lnpt  | grep -i TCP | grep `jps | grep -w QuorumPeerMain | awk '{print $1}'`
tcp6       0      0 :::2181                 :::*                    LISTEN      240750/java         
tcp6       0      0 :::42277                :::*                    LISTEN      240750/java         
tcp6       0      0 :::8080                 :::*                    LISTEN      240750/java     
$ bin/zkCli.sh -server 127.0.0.1:2181
[zk: 127.0.0.1:2181(CONNECTED) 0] ls /
[zookeeper]

Note: use following command to stop zookeeper

$ cd ~/bigdata/zookeeper-3.8.1
$ bin/zkServer.sh stop

2. Install Hadoop
1) download Hadoop from https://hadoop.apache.org/releases.html
2) extract binary

$ tar xvf hadoop-2.10.2.tar.gz -C ~/bigdata/

3) configurate

$ cd $HADOOP_HOME/etc/hadoop
$ vi hadoop-env.sh core-site.xml hdfs-site.xml mapred-site.xml yarn-site.xml
$ diff -u hadoop-env.sh.orig hadoop-env.sh
...
 # The java implementation to use.
-export JAVA_HOME=${JAVA_HOME}
+export JAVA_HOME=/opt/jdk

$ cat core-site.xml
...
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://ubuntu:8020</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/sunxo/bigdata/hadoop-2.10.2/data/tmp</value>
    </property>
</configuration>

$ cat hdfs-site.xml
...
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.http-address</name>
        <value>ubuntu:50070</value>
    </property>
    <property>
        <name>dfs.datanode.address</name>
        <value>ubuntu:50010</value>
    </property>
    <property>
        <name>dfs.datanode.http.address</name>
        <value>ubuntu:50075</value>
    </property>
    <property>
        <name>dfs.datanode.ipc.address</name>
        <value>ubuntu:50020</value>
    </property>
</configuration>

$ cat mapred-site.xml
...
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>ubuntu:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>ubuntu:19888</value>
    </property>
</configuration>

$ cat yarn-site.xml
...
<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>ubuntu</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
    <property>
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>604800</value>
    </property>
    <property>
        <name>yarn.resourcemanager.scheduler.class</name>
        <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
    </property>
</configuration>

4) format the filesystem

$ cd $HADOOP_HOME
$ mkdir data/tmp    # as config in core-site.xml
$ bin/hdfs namenode -format
...
23/06/16 15:39:53 INFO common.Storage: Storage directory /home/sunxo/bigdata/hadoop-2.10.2/data/tmp/dfs/name has been successfully formatted

5) start hadoop / yarn

$ cd $HADOOP_HOME
$ sbin/start-dfs.sh
$ sbin/start-yarn.sh
$ sbin/mr-jobhistory-daemon.sh start historyserver

6) try hadoop

#!/bin/sh

mr() {
    cd $HADOOP_HOME
    mkdir -p input
    echo test apache hadoop hadoop sqoop hue mapreduce sqoop oozie http > input/in.txt
    hdfs dfs -rm -f -r input
    hdfs dfs -mkdir input
    hdfs dfs -put input/in.txt input
    hdfs dfs -rm -f -r output
    hadoop jar $jarfile wordcount input output
    hdfs dfs -cat output/*
}

jarfile=$HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.10.2.jar
mr
$ cd $HADOOP_HOME
$ bin/hdfs dfs -mkdir /user
$ bin/hdfs dfs -mkdir /user/sunxo    # build user home on hdfs
$ ./mr.sh
...
apache	1
hadoop	2
http	1
hue	1
mapreduce	1
oozie	1
sqoop	2
test	1

Note: use followings commands to stop hadoop / yarn

$ cd $HADOOP_HOME
$ sbin/mr-jobhistory-daemon.sh stop historyserver
$ sbin/stop-yarn.sh
$ sbin/stop-dfs.sh

3. Install hbase
1) download HBase from https://hbase.apache.org/downloads.html
2) extract binary

$ tar xvf hbase-2.4.16-bin.tar.gz -C ~/bigdata/

3) configurate

$ cd $HBASE_HOME/conf
$ vi hbase-env.sh hbase-site.xml
$ diff -u hbase-env.sh.orig hbase-env.sh

$ diff -u hbase-site.xml.orig hbase-site.xml
...
 # The java implementation to use.  Java 1.8+ required.
-# export JAVA_HOME=/usr/java/jdk1.8.0/
+export JAVA_HOME=/opt/jdk
...
 # Tell HBase whether it should manage it's own instance of ZooKeeper or not.
-# export HBASE_MANAGES_ZK=true
+export HBASE_MANAGES_ZK=false

$ cat hbase-site.xml
...
<configuration>
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://ubuntu:8020/hbase</value>
    </property>
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>localhost</value>
    </property>
    <property>
        <name>hbase.zookeeper.property.clientPort</name>
        <value>2181</value>
    </property>
    <property>
        <name>zookeeper.znode.parent</name>
        <value>/hbase</value>
    </property>
    <property>
        <name>phoenix.schema.isNamespaceMappingEnabled</name>
        <value>true</value>
    </property>
    <property>
        <name>phoenix.schema.mapSystemTablesToNamespace</name>
        <value>true</value>
    </property>
</configuration> 

4) start hbase

$ cd $HBASE_HOME
$ bin/start-hbase.sh

5) try hbase

$ cd $HBASE_HOME
$ bin/hbase shell
> create_namespace 'manga'
Took 0.1748 seconds
> list_namespace
NAMESPACE                                                                                           
default                                                                                             
hbase                                                                                               
manga                                                                                               
3 row(s)
Took 0.0209 seconds

Note: use followings commands to stop hbase

$ cd $HBASE_HOME
$ bin/stop-hbase.sh

reference:

https://zookeeper.apache.org/doc/r3.8.1/zookeeperStarted.html
https://hadoop.apache.org/docs/r2.10.2/hadoop-project-dist/hadoop-common/SingleCluster.html#Pseudo-Distributed_Operation
https://hbase.apache.org/book.html#quickstart文章來源地址http://www.zghlxwxcb.cn/news/detail-498603.html

到了這里,關(guān)于搭建HBase偽分布式集群的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Hadoop3.x完全分布式環(huán)境搭建Zookeeper和Hbase

    Hadoop3.x完全分布式環(huán)境搭建Zookeeper和Hbase

    集群規(guī)劃 IP地址 主機(jī)名 集群身份 192.168.138.100 hadoop00 主節(jié)點(diǎn) 192.168.138.101 hadoop01 從節(jié)點(diǎn) 192.168.138.102 hadoop02 從節(jié)點(diǎn) Hadoop完全分布式環(huán)境搭建請(qǐng)移步傳送門 先在主節(jié)點(diǎn)上進(jìn)行安裝和配置,隨后分發(fā)到各個(gè)從節(jié)點(diǎn)上。 1.1 解壓zookeeper并添加環(huán)境變量 1)解壓zookeeper到/usr/local文件夾

    2024年02月04日
    瀏覽(29)
  • Zookeeper 偽分布式集群搭建詳細(xì)步驟

    在同一臺(tái)服務(wù)器上,部署一個(gè) 3 個(gè) ZooKeeper 節(jié)點(diǎn)組成的集群,這樣的集群叫偽分布式集 群,而如果集群中的 3 個(gè)節(jié)點(diǎn)分別部署在 3 個(gè)服務(wù)器上,那么這種集群就叫真正的分布式 集群。 這里,記錄一下搭建一個(gè) 3 節(jié)點(diǎn)的偽分布式集群的過程,真正的分布式集群的搭建過程和 偽

    2024年02月08日
    瀏覽(22)
  • 分布式集群——jdk配置與zookeeper環(huán)境搭建

    分布式集群——jdk配置與zookeeper環(huán)境搭建

    分布式集群——jdk配置與zookeeper環(huán)境搭建 分布式集群——搭建Hadoop環(huán)境以及相關(guān)的Hadoop介紹 文章目錄 系列文章目錄 前言 一 zookeeper介紹與環(huán)境配置 1.1 zookeeper的學(xué)習(xí) 1.2 Zookeeper的主要功能 1.2.1 znode的節(jié)點(diǎn)類型 1.2.2 zookeeper的實(shí)現(xiàn) 1.3 Zookeeper的特征 zookeeper的幾種角色? 1.4 關(guān)于

    2024年02月10日
    瀏覽(95)
  • 大數(shù)據(jù)開源框架環(huán)境搭建(五)——Hbase完全分布式集群的安裝部署

    大數(shù)據(jù)開源框架環(huán)境搭建(五)——Hbase完全分布式集群的安裝部署

    目錄 實(shí)驗(yàn)環(huán)境: 實(shí)驗(yàn)步驟: 〇、Zookeeper安裝配置: 一、安裝前注意事項(xiàng) 二、HBase安裝 ?三、Hbase集群配置 1.配置hbase-env.sh文件,位于Hbase安裝目錄/conf/ 2.配置hbase-site.xml文件,位于Hbase安裝目錄/conf/ 3.配置regionservers 4.新建 backup-masters文件,添加備份HMaster機(jī)器名 四、將配置好

    2024年02月08日
    瀏覽(31)
  • 搭建Zookeeper集群:三臺(tái)服務(wù)器,一場(chǎng)分布式之舞

    搭建Zookeeper集群:三臺(tái)服務(wù)器,一場(chǎng)分布式之舞

    歡迎來到我的博客,代碼的世界里,每一行都是一個(gè)故事 在分布式系統(tǒng)的舞臺(tái)上,Zookeeper是一位不可或缺的重要角色。如何搭建一個(gè)穩(wěn)定、高性能的Zookeeper集群,成為每位系統(tǒng)管理員和開發(fā)者的必修課。讓我們一同踏上這場(chǎng)集群之旅,揭秘三臺(tái)服務(wù)器背后的Zookeeper配置細(xì)節(jié),

    2024年04月28日
    瀏覽(28)
  • Linux-一篇文章,速通Hadoop集群之偽分布式,完全分布式,高可用搭建(附zookeeper,jdk介紹與安裝)。

    Linux-一篇文章,速通Hadoop集群之偽分布式,完全分布式,高可用搭建(附zookeeper,jdk介紹與安裝)。

    文章較長(zhǎng),附目錄,此次安裝是在VM虛擬環(huán)境下進(jìn)行。文章第一節(jié)主要是介紹Hadoop與Hadoop生態(tài)圈并了解Hadoop三種集群的區(qū)別,第二節(jié)和大家一起下載,配置Linux三種集群以及大數(shù)據(jù)相關(guān)所需的jdk,zookeeper,只需安裝配置的朋友可以直接跳到文章第二節(jié)。同時(shí),希望我的文章能幫

    2024年03月19日
    瀏覽(27)
  • zookeeper搭建分布式集群?jiǎn)?dòng)失敗(Error contacting service. It is probably not running.)

    1.啟動(dòng)zookeeper后查看狀態(tài) /bin/zkServer.sh status 發(fā)現(xiàn)報(bào)錯(cuò) Error contacting service. It is probably not running. 2.查看日志 zookeeper-root-server-zookeeper01.out 發(fā)現(xiàn)報(bào)了一拒絕鏈接java.net.ConnectException: 拒絕連接 (Connection refused) 方法1: 將配置文件 zoo.cfg 中節(jié)點(diǎn)對(duì)應(yīng)機(jī)器的地址改為:0.0.0.0 修改完再此

    2024年02月06日
    瀏覽(25)
  • HBase偽分布式集群的復(fù)制

    0. prerequisite Suppose 2 hbase pseudo distributed clusters have both started as folowing relevant parameters in hbase-site.xml source destnation hbase.zookeeper.quorum??? ubuntu centos2 hbase.zookeeper.property.clientPort 2181 2181 zookeeper.znode.parent /hbase /hbase 1. Create table for replication 1) start hbase shell on source cluster and create a tab

    2024年02月13日
    瀏覽(21)
  • VMware創(chuàng)建Linux虛擬機(jī)之(四)ZooKeeper&HBase完全分布式安裝

    VMware創(chuàng)建Linux虛擬機(jī)之(四)ZooKeeper&HBase完全分布式安裝

    Hello,world! ?? ??本篇博客使用到的工具有:VMware16 ,Xftp7 若不熟悉操作命令,推薦使用帶GUI頁(yè)面的CentOS7虛擬機(jī) 我將使用帶GUI頁(yè)面的虛擬機(jī)演示 虛擬機(jī)(Virtual Machine) 指通過軟件模擬的具有完整硬件系統(tǒng)功能的、運(yùn)行在一個(gè)完全隔離環(huán)境中的完整計(jì)算機(jī)系統(tǒng)。在實(shí)體計(jì)算

    2024年02月07日
    瀏覽(25)
  • 分布式應(yīng)用:Zookeeper 集群與kafka 集群部署

    分布式應(yīng)用:Zookeeper 集群與kafka 集群部署

    目錄 一、理論 1.Zookeeper? ?2.部署 Zookeeper 集群 3.消息隊(duì)列 ?4.Kafka 5.部署 kafka 集群 6.Filebeat+Kafka+ELK 二、實(shí)驗(yàn) 1.Zookeeper 集群部署 2.kafka集群部署 3.Filebeat+Kafka+ELK 三、問題 ? ? ? ? ?1.解壓文件異常 2.kafka集群建立失敗 3.啟動(dòng) filebeat報(bào)錯(cuò) 4.VIM報(bào)錯(cuò) 5.?kibana無法匹配 四、總結(jié)

    2024年02月14日
    瀏覽(99)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包