国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Flink+hadoop部署及Demo

這篇具有很好參考價(jià)值的文章主要介紹了Flink+hadoop部署及Demo。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

Hadoop集群高可用部署

下載hadoop包地址

https://dlcdn.apache.org/hadoop/common/hadoop-3.2.4/hadoop-3.2.4.tar.gz
上傳并解壓到3臺(tái)服務(wù)器
配置3臺(tái)主機(jī)的hosts和免密登錄
Flink+hadoop部署及Demo

1.修改.bash_profile

vi .bash_profile
# HADOOP_HOME
export HADOOP_HOME=/apps/svr/hadoop-3.2.4
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

source .bash_profile
hadoop version查看hadoop下載版本
Flink+hadoop部署及Demo

架構(gòu)如下:

hadoop01 hadoop02 hadoop03
HDFS NameNode,DataNode DataNode NameNode,DataNode
YARN ResouceManager,NodeManager NodeManager ResouceManager,NodeManager

NameNode 通過(guò)rpc高可用
ResouceManager通過(guò)zk高可用
主備目錄

在集群各節(jié)點(diǎn)創(chuàng)建目錄

mkdir -p /apps/svr/hadoop-3.2.4/tmp
mkdir -p /apps/svr/hadoop-3.2.4/dfs/name
mkdir -p /apps/svr/hadoop-3.2.4/dfs/data
mkdir -p /apps/svr/hadoop-3.2.4/journaldata

2.配置core-site.xml

        <property>
         <name>fs.defaultFS</name>
         <value>hdfs://mycluster/</value>
        </property>
        
        <!-- 指定hadoop工作目錄 -->
        <property>
          <name>hadoop.tmp.dir</name>
          <value>/apps/svr/hadoop-3.2.4/tmp</value>
        </property>
      
        <!-- 指定zookeeper集群訪問(wèn)地址 -->
        <property>
          <name>ha.zookeeper.quorum</name>
          <value>10.251.75.112:2181,10.251.75.113:2181,10.251.75.114:2181</value>
        </property>
      
        <!-- 配置為了解決以后其他組件連接HDFS集群  -->
        <property>
          <name>hadoop.proxyuser.bigdata.hosts</name>
          <value>*</value>
        </property>
      
        <property>
          <name>hadoop.proxyuser.bigdata.groups</name>
          <value>*</value>
        </property>

3.修改配置文件hdfs-site.xml

<!-- NameNode 存放的位置 -->
  <property>
        <name>dfs.namenode.name.dir</name>
        <value>/apps/svr/hadoop-3.2.4/dfs/name</value>
    </property>
  <!-- DataNode 存放的位置 -->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/apps/svr/hadoop-3.2.4/dfs/data</value>
    </property>
<!-- 指定HDFS的nameservices為mycluster,需要跟core-site.xml中保持一致 -->
  <property>

    <name>dfs.replication</name>

    <value>2</value>

  </property>
<!-- 指定HDFS的nameservices為mycluster,需要跟core-site.xml中保持一致 -->
  <property>
          <name>dfs.nameservices</name>
          <value>mycluster</value>
  </property>
      
        <!-- 設(shè)置mycluster集群有兩個(gè)namenode, 分別為nn1,nn2 -->
  <property>
          <name>dfs.ha.namenodes.mycluster</name>
          <value>nn1,nn2</value>
  </property>
      
        <!-- 配置nn1 的RPC通信地址 -->
   <property>
          <name>dfs.namenode.rpc-address.mycluster.nn1</name>
          <value>10.251.75.112:9000</value>
   </property>
        
        <!-- 配置nn1的http通信地址 -->
   <property>
          <name>dfs.namenode.http-address.mycluster.nn1</name>
          <value>10.251.75.112:50070</value>
   </property>
 
 <!-- 配置nn2 的RPC通信地址 -->
   <property>
          <name>dfs.namenode.rpc-address.mycluster.nn2</name>
          <value>10.251.75.114:9000</value>
   </property>
      
        <!-- 配置nn2的http通信地址 -->
   <property>
          <name>dfs.namenode.http-address.mycluster.nn2</name>
          <value>10.251.75.114:50070</value>
   </property>
      
        <!-- 指定JournalNode 在本地磁盤存放數(shù)據(jù)的位置 -->
   <property>
          <name>dfs.journalnode.edits.dir</name>
          <value>/apps/svr/hadoop-3.2.4/journaldata</value>
   </property>
      
        <!-- 指定NameNode的edits元數(shù)據(jù)在journalNode上的服務(wù)器 -->
   <property>
          <name>dfs.namenode.shared.edits.dir</name>
          <value>qjournal://10.251.75.112:8485;10.251.75.113:8485;10.251.75.114:8485/mycluster</value>
   </property>
 
 <!-- 開(kāi)啟NameNode 自動(dòng)切換 -->
   <property>
          <name>dfs.ha.automatic-failover.enabled</name>
          <value>true</value>
   </property>
      
        <!-- 配置nameNode失敗自動(dòng)切換的實(shí)現(xiàn)方式 -->
   <property>
          <name>dfs.client.failover.proxy.provider.mycluster</name>
          <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
   </property>
      
        <!-- 配置隔離機(jī)制方法 -->
   <property>
          <name>dfs.ha.fencing.methods</name>
          <value>
            sshfence
            shell(/bin/true)
          </value>
   </property>
      
        <!-- 使用sshfence隔離機(jī)制時(shí)需要ssh免密登陸 -->
   <property>
          <name>dfs.ha.fencing.ssh.private-key-files</name>
          <value>/apps/.ssh/id_rsa</value>
   </property>
 
  <!-- 配置sshfence隔離機(jī)制超時(shí)時(shí)間 -->
   <property>
          <name>dfs.ha.fencing.ssh.connect-timeout</name>
          <value>30000</value>
   </property>
     
   <property>
         <name>dfs.webhdfs.enabled</name>
         <value>true</value>
   </property>

4.配置mapred-site.xml

    <!-- 指定mapreduce運(yùn)算時(shí)資源調(diào)度為 yarn 模式 -->
       <property>
          <name>mapreduce.framework.name</name>
         <value>yarn</value>
        </property>
      
        <!-- 配置mapreduce歷史服務(wù)器地址 端口號(hào) -->
        <property>
          <name>mapreduce.jobhistory.address</name>
          <value>10.251.75.112:10020</value>
        </property>
      
        <!-- 配置mapreduce歷史服務(wù)器WEB訪問(wèn)地址 -->
        <property>
          <name>mapreduce.jobhistory.webapp.address</name>
          <value>10.251.75.112:19888</value>
        </property>

5.配置yarn-site.xml

<!-- Site specific YARN configuration properties -->
 
 <!-- 開(kāi)啟高可用 -->
  <property>
    <name>yarn.resourcemanager.ha.enabled</name>
    <value>true</value>
  </property>
 
  <!-- 指定ResourceManager的標(biāo)識(shí):yrc -->
  <property>
    <name>yarn.resourcemanager.cluster-id</name>
    <value>yrc</value>
  </property>
 
  <!-- 指定RM的名字-->
  <property>
    <name>yarn.resourcemanager.ha.rm-ids</name>
    <value>rm1,rm2</value>
  </property>
 
 <!-- 指定rm1服務(wù)器 -->
  <property>
    <name>yarn.resourcemanager.hostname.rm1</name>
    <value>10.251.75.112</value>
  </property>
 
  <!-- 指定rm2服務(wù)器 -->
  <property>
    <name>yarn.resourcemanager.hostname.rm2</name>
    <value>10.251.75.114</value>
  </property>
 
  <!-- 指定rm 被管理的zk 地址 -->
  <property>
    <name>yarn.resourcemanager.zk-address</name>
    <value>10.251.75.112:2181,10.251.75.113:2181,10.251.75.114:2181</value>
  </property>
 
<!-- 運(yùn)行mapreduce任務(wù)需要使用的服務(wù) -->
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
 
  <!-- 開(kāi)啟yarn集群的日志聚合功能 -->
  <property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
  </property>
 
  <!-- 設(shè)置日志保存時(shí)間 -->
  <property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>86400</value>
  </property>
 
  <!-- 啟動(dòng)rm自動(dòng)恢復(fù)功能 -->
  <property>
    <name>yarn.resourcemanager.recovery.enabled</name>
    <value>true</value>
  </property>
 
 <!-- 制定rm 狀態(tài)信息存儲(chǔ)在zookeeper集群上 -->
  <property>
    <name>yarn.resourcemanager.store.class</name>
    <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>
  </property>
  <!--是否啟動(dòng)一個(gè)線程檢查每個(gè)任務(wù)正使用的物理內(nèi)存量,如果任務(wù)超出分配值,則直接將其殺掉,默認(rèn)是true -->
  <!--是否啟動(dòng)一個(gè)線程檢查每個(gè)任務(wù)正使用的物理內(nèi)存量,如果任務(wù)超出分配值,則直接將其殺掉,默認(rèn)是true -->
  <property>
          <name>yarn.nodemanager.pmem-check-enabled</name>
          <value>false</value>
  </property>
 <!--是否啟動(dòng)一個(gè)線程檢查每個(gè)任務(wù)正使用的虛擬內(nèi)存量,如果任務(wù)超出分配值,則直接將其殺掉,默認(rèn)是true -->
  <property>
          <name>yarn.nodemanager.vmem-check-enabled</name>
          <value>false</value>
  </property>

6.修改文件workers文件

10.251.75.112
10.251.75.113
10.251.75.114

7.修改hadoop-env.sh

配置JAVA_HOME和主機(jī)上的jdk環(huán)境變量一樣

6.將core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml傳到另外2臺(tái)主機(jī)

scp core-site.xml apps@10.251.75.113:/apps/svr/hadoop-3.2.4/etc/hadoop
scp hdfs-site.xml apps@10.251.75.113:/apps/svr/hadoop-3.2.4/etc/hadoop
scp mapred-site.xml apps@10.251.75.113:/apps/svr/hadoop-3.2.4/etc/hadoop
scp yarn-site.xml apps@10.251.75.113:/apps/svr/hadoop-3.2.4/etc/hadoop
scp workers apps@10.251.75.113:/apps/svr/hadoop-3.2.4/etc/hadoop
scp hadoop-env.sh apps@10.251.75.113:/apps/svr/hadoop-3.2.4/etc/hadoop

scp core-site.xml apps@10.251.75.114:/apps/svr/hadoop-3.2.4/etc/hadoop
scp hdfs-site.xml apps@10.251.75.114:/apps/svr/hadoop-3.2.4/etc/hadoop
scp mapred-site.xml apps@10.251.75.114:/apps/svr/hadoop-3.2.4/etc/hadoop
scp yarn-site.xml apps@10.251.75.114:/apps/svr/hadoop-3.2.4/etc/hadoop
scp workers apps@10.251.75.114:/apps/svr/hadoop-3.2.4/etc/hadoop
scp hadoop-env.sh apps@10.251.75.114:/apps/svr/hadoop-3.2.4/etc/hadoop

啟動(dòng)集群各個(gè)節(jié)點(diǎn)監(jiān)控NameNode的管理日志的JournalNode
在各節(jié)點(diǎn)執(zhí)行
hdfs --daemon start journalnode
Flink+hadoop部署及Demo
在node01上格式化namenode
hdfs namenode -format
在node1上啟動(dòng)namenode
hdfs --daemon start namenode
Flink+hadoop部署及Demo
同步nn2 及node03上同步nn1及node01的源數(shù)據(jù)
hdfs namenode -bootstrapStandby
在node1節(jié)點(diǎn)上格式化ZKFC
hdfs zkfc -formatZK

node1節(jié)點(diǎn)上啟動(dòng)HDFS和Yarn
start-dfs.sh
Flink+hadoop部署及Demo
查看zk,namenode在node03上
Flink+hadoop部署及Demo

查看hdfs管理頁(yè)面

http://10.251.75.112:50070/
http://10.251.75.114:50070/
Flink+hadoop部署及Demo
Flink+hadoop部署及Demo

start-yarn.sh
進(jìn)程在node01和node03上
Flink+hadoop部署及Demo

查看HA zk節(jié)點(diǎn)數(shù)據(jù) resourceMaster在rm2上
Flink+hadoop部署及Demo
啟動(dòng)后查看yarn頁(yè)面 node03頁(yè)面
http://10.251.75.114:8088/cluster
Flink+hadoop部署及Demo

Flink部署

下載包地址

flink下載地址
https://www.apache.org/dyn/closer.lua/flink/flink-1.16.1/flink-1.16.1-bin-scala_2.12.tgz

節(jié)點(diǎn)服務(wù)器 hadoop01 hadoop02 hadoop03
角色 JobManager

解壓后
配置source

export FLINK_HOME=/apps/svr/flink-1.16.1
export PATH=export PATH=$FLINK_HOME/bin:$PATH

source .bash_profile

Flink Per-Job模式

Per-Job 模式是指每個(gè)Flink Job都是一組獨(dú)立集群,即有自己的JobManager和TaskManager。提交任務(wù)后,YARN首先會(huì)為該任務(wù)分派一個(gè)AM容器,該容器內(nèi)會(huì)運(yùn)行一個(gè)JobManager進(jìn)程,之后JobManager會(huì)向Yarn申請(qǐng)運(yùn)行TaskManager所需要的container,container的數(shù)量和container的配置(CPU、內(nèi)存)會(huì)基于客戶端的需求來(lái)確定,當(dāng)JobManager和TaskManager進(jìn)程都拉起來(lái)之后,則會(huì)執(zhí)行相應(yīng)的Flink Job。這樣,與Standalone以及yarn-session不同的是,我們不需要準(zhǔn)備一個(gè)常駐的Flink 集群進(jìn)程,只需要保證本地有一個(gè)Flink環(huán)境即可,F(xiàn)link集群是在我們提交Job時(shí)動(dòng)態(tài)創(chuàng)建出來(lái)的。
這種方式的優(yōu)勢(shì)在于每個(gè)任務(wù)獨(dú)立運(yùn)行,相互不會(huì)收到干擾,這個(gè)不干擾還包括了運(yùn)行日志也是隔離的。另外,借助YARN集群的能力,提供了對(duì)Flink Job的全方位保障,包括JobManager的高可用,TaskManager的恢復(fù),然后再結(jié)合Flink自身提供的健壯性,包括檢查點(diǎn)、保存點(diǎn)機(jī)制,從而能夠很好的保障Flink Job的高可用和健壯性。劣勢(shì)的話,就是保證了資源隔離的同時(shí)也占用了更多的資源,因?yàn)槊總€(gè)Job都需要一個(gè)JobManager,每個(gè)JobManager都會(huì)消耗一個(gè)AM進(jìn)程資源。

-yn,--container <arg> 表示分配容器的數(shù)量,也就是 TaskManager 的數(shù)量。
-d,--detached:設(shè)置在后臺(tái)運(yùn)行。
-yjm,--jobManagerMemory<arg>:設(shè)置 JobManager 的內(nèi)存,單位是 MB。
-ytm,--taskManagerMemory<arg>:設(shè)置每個(gè) TaskManager 的內(nèi)存,單位是 MB。
-ynm,--name:給當(dāng)前 Flink application 在 Yarn 上指定名稱。
-yq,--query:顯示 yarn 中可用的資源(內(nèi)存、cpu 核數(shù))
-yqu,--queue<arg> :指定 yarn 資源隊(duì)列
-ys,--slots<arg> :每個(gè) TaskManager 使用的 Slot 數(shù)量。
-yz,--zookeeperNamespace<arg>:針對(duì) HA 模式在 Zookeeper 上創(chuàng)建 NameSpace
-yid,--applicationID<yarnAppId> : 指定 Yarn 集群上的任務(wù) ID,附著到一個(gè)后臺(tái)獨(dú) 立運(yùn)行的 Yarn Session 中。

使用flink run -m yarn-cluster --help 可查看可用命令

Flink+hadoop部署及Demo

Demo01

在flink上執(zhí)行命令跑demo
flink run -m yarn-cluster -t yarn-per-job -yjm 1024 -ytm 1024 /apps/svr/flink-1.16.1/examples/streaming/WordCount.jar
任務(wù)執(zhí)行完成并且
Flink+hadoop部署及Demo
通過(guò)yarn頁(yè)面查看到任務(wù)已完成,并且hdfs上有記錄
Flink+hadoop部署及Demo
Flink+hadoop部署及Demo

Demo02

登錄10.251.75.112 nc -lk 9999開(kāi)啟服務(wù)端端口監(jiān)聽(tīng)
nc -kl 9999
Flink+hadoop部署及Demo
flink run -m yarn-cluster -t yarn-per-job -yjm 1024 -ytm 1024 /apps/svr/flink-1.16.1/examples/streaming/SocketWindowWordCount.jar --hostname 10.251.75.112 --port 9999
Flink+hadoop部署及Demo
打開(kāi)flink集群管理頁(yè)面
Flink+hadoop部署及Demo
在服務(wù)端nc窗口輸入hello word即可看到flink管理頁(yè)面有對(duì)應(yīng)輸出
Flink+hadoop部署及Demo

在flink taskmanager即可看到對(duì)應(yīng)輸出
Flink+hadoop部署及Demo

將任務(wù)關(guān)閉

查看管理頁(yè)面
Flink+hadoop部署及Demo
Flink+hadoop部署及Demo
yarn application -kill application_1684908112422_0008
Flink+hadoop部署及Demo
查看管理頁(yè)面任務(wù)已被關(guān)閉
Flink+hadoop部署及Demo文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-466921.html

到了這里,關(guān)于Flink+hadoop部署及Demo的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • hadoop高可用集群配置

    hadoop高可用集群配置

    Apache Hadoop 3.3.4 – HDFS High Availability Using the Quorum Journal Manager 1.1、環(huán)境準(zhǔn)備 修改IP 修改主機(jī)名及主機(jī)名和IP地址的映射 關(guān)閉防火墻 ssh免密登錄 安裝JDK,配置環(huán)境變量等 1.2、集群規(guī)劃 linux121 linux122 linux123 NameNode NameNode JournalNode JournalNode JournalNode DataNode DataNode DataNode ZK ZK ZK Re

    2023年04月23日
    瀏覽(17)
  • 【大數(shù)據(jù)】Hadoop高可用集群搭建

    【大數(shù)據(jù)】Hadoop高可用集群搭建

    大家好!這篇文章是我在搭建Hdfs的HA(高可用)時(shí)寫(xiě)下的詳細(xì)筆記與感想,希望能幫助到大家!本篇文章收錄于 初心 的 大數(shù)據(jù) 專欄。 ?? 個(gè)人主頁(yè):初心%個(gè)人主頁(yè) ?? 個(gè)人簡(jiǎn)介:大家好,我是初心,和大家共同努力 ?? 座右銘:理想主義的花,終究會(huì)盛開(kāi)在浪漫主義的土壤里

    2024年02月06日
    瀏覽(21)
  • hadoop HA高可用集群實(shí)戰(zhàn)

    hadoop HA高可用集群實(shí)戰(zhàn)

    HA(high available),即高可用(24h不中斷服務(wù)) 實(shí)現(xiàn)高可用最關(guān)鍵的策略是消除單點(diǎn)故障。HA嚴(yán)格來(lái)說(shuō)是應(yīng)該分成各個(gè)組件的HA機(jī)制 hadoop2.0之前,在HDFS集群中NamNode存在單點(diǎn)故障(SPOF) NameNode主要存在以下兩個(gè)方敏影響HDFS集群。 NameNode機(jī)器發(fā)生意外,如宕機(jī),集群無(wú)法使用,

    2024年02月01日
    瀏覽(24)
  • Hadoop高可用(HA)集群搭建

    Hadoop高可用(HA)集群搭建

    高可用(high availability,HA)指的是若當(dāng)前工作中的機(jī)器宕機(jī)了,系統(tǒng)會(huì)自動(dòng)處理異常,并將工作無(wú)縫地轉(zhuǎn)移到其他備用機(jī)器上,以保證服務(wù)的高可靠性與可用性。 而Zookeeper是一個(gè)分布式協(xié)調(diào)服務(wù), Zookeeper即可用來(lái)保證Hadoop集群的高可用性 。通過(guò)zookeeper集群與Hadoop2.X中的兩個(gè)

    2024年02月16日
    瀏覽(26)
  • 最全Hadoop實(shí)際生產(chǎn)集群高可用搭建

    序號(hào) bigdata-001 bigdata-002 bigdata-003 bigdata-004 bigdata-005 IP x x x x x x xxx xxx xxx 組件 hadoop1 hadoop2 hadoop3 hadoop4 hadoop5 內(nèi)存 64G 64G 128G 128G 128G CPU核 16 16 32 32 32 Hadoop-3.3.4 NameNode NameNode DataNode DataNode DataNode ResourceManager ResourceManager NodeManager NodeManager NodeManager DFSZKFailoverController DFSZKFailoverCont

    2024年02月03日
    瀏覽(46)
  • Hadoop HA-hadoop完全分布式高可用集群配置、高可用集群?jiǎn)?dòng)方式、master/slave1/slave2配置

    Hadoop HA-hadoop完全分布式高可用集群配置、高可用集群?jiǎn)?dòng)方式、master/slave1/slave2配置

    ? ? ? ? ?本文章使用root用戶完成相關(guān)配置與啟動(dòng)、這里分為master、slave1、slave2進(jìn)行配置 ????????一、將hadoop解壓至需要的目錄下 ? ? ? ? ?二、配置hadoop-env.sh啟動(dòng)文件 ? ? ? ? 三、配置hdfs-site.xml文件 ????????四、配置core-site.xml文件 ????????五、配置yarn-site.x

    2024年02月06日
    瀏覽(28)
  • 【大數(shù)據(jù)入門核心技術(shù)-Hadoop】(六)Hadoop3.2.1高可用集群搭建

    【大數(shù)據(jù)入門核心技術(shù)-Hadoop】(六)Hadoop3.2.1高可用集群搭建

    目錄 一、Hadoop部署的三種方式 1、Standalone mode(獨(dú)立模式) 2、Pseudo-Distributed mode(偽分布式模式) 3、Cluster mode(集群模式) 二、準(zhǔn)備工作 1、先完成zk高可用搭建 2、/etc/hosts增加內(nèi)容 3、各臺(tái)服務(wù)器分別創(chuàng)建目錄 4、關(guān)閉防火墻和禁用swap交換分區(qū) 5、三臺(tái)機(jī)器間免密 6、安裝

    2023年04月20日
    瀏覽(24)
  • CentOS 搭建 Hadoop3 高可用集群

    CentOS 搭建 Hadoop3 高可用集群

    spark101 spark102 spark103 192.168.171.101 192.168.171.102 192.168.171.103 namenode namenode journalnode journalnode journalnode datanode datanode datanode nodemanager nodemanager nodemanager recource manager recource manager job history job log job log job log 1.1 升級(jí)操作系統(tǒng)和軟件 升級(jí)后建議重啟 1.2 安裝常用軟件 1.3 修改主機(jī)名 1

    2024年02月06日
    瀏覽(25)
  • 基于Hadoop搭建Flink集群詳細(xì)步驟

    基于Hadoop搭建Flink集群詳細(xì)步驟

    目錄 1.xftp上傳flink壓縮包至hadoop102的/opt/software/目錄下 2.解壓flink壓縮包至/opt/module/目錄下 3. 配置flink-conf.yaml 4.配置masters 5.配置workers 6.配置環(huán)境變量my_env.sh 7.重啟環(huán)境變量 8.分發(fā)/opt/module/flink-1.13.0和/etc/profile.d/my_env.sh 9.另外兩臺(tái)重啟環(huán)境變量 10.開(kāi)啟hadoop集群和flink集群 11.瀏

    2024年02月09日
    瀏覽(27)
  • VMware搭建Hadoop集群 for Windows(完整詳細(xì),實(shí)測(cè)可用)

    VMware搭建Hadoop集群 for Windows(完整詳細(xì),實(shí)測(cè)可用)

    目錄 一、VMware 虛擬機(jī)安裝 (1)虛擬機(jī)創(chuàng)建及配置? (2)創(chuàng)建工作文件夾 二、克隆虛擬機(jī) 三、配置虛擬機(jī)的網(wǎng)絡(luò) (1)虛擬網(wǎng)絡(luò)配置 (2)配置虛擬機(jī) 主機(jī)名 (3)配置虛擬機(jī)hosts (4)配置DNS、網(wǎng)關(guān)等 (5)reboot 重啟虛擬機(jī) 四、配置SSH服務(wù) (1)確認(rèn)ssh進(jìn)程? (2)生成秘鑰

    2024年02月08日
    瀏覽(22)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包