国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建

這篇具有很好參考價(jià)值的文章主要介紹了Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

準(zhǔn)備工作

本文簡(jiǎn)述FlinkLinux中安裝步驟,和示例程序的運(yùn)行。需要安裝JDK1.8及以上版本。

下載地址:下載Flink的二進(jìn)制包

Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)
點(diǎn)進(jìn)去后,選擇如下鏈接:
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)
解壓flink-1.10.1-bin-scala_2.12.tgz,我這里解壓到soft目錄

[root@hadoop1 softpackage]# tar -zxvf flink-1.10.1-bin-scala_2.12.tgz -C ../soft/

單節(jié)點(diǎn)安裝

解壓后進(jìn)入Flinkbin目錄執(zhí)行如下腳本即可

 [root@hadoop1 bin]# ./start-cluster.sh 
 Starting cluster.
 Starting standalonesession daemon on host hadoop1.
 Starting taskexecutor daemon on host hadoop1.

進(jìn)入Flink頁(yè)面看看,如果沒(méi)有修改配置中的端口,默認(rèn)是8081
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)## 集群安裝

集群安裝分為以下幾步:(注意:hadoopx都是我配置了/etc/hosts域名的)bin
【1】將hadoop1中解壓的Flink分發(fā)到其他機(jī)器上,同時(shí)我也配置了免密登錄SSH(也可以手動(dòng)復(fù)制low)。

[root@hadoop1 soft]# xsync flink-1.10.1

執(zhí)行完后,我們就可以在hadoop2hadoop3中看到flink
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)
【2】選擇hadoop1作為master節(jié)點(diǎn),然后修改所有機(jī)器conf/flink-conf.yaml(修改hadoop1分發(fā)即可)jobmanager.rpc.address密鑰以指向您的主節(jié)點(diǎn)。您還應(yīng)該通過(guò)設(shè)置jobmanager.heap.size和taskmanager.memory.process.size鍵來(lái)定義允許Flink在每個(gè)節(jié)點(diǎn)上分配的最大主內(nèi)存量。這些值以MB為單位。如果某些工作節(jié)點(diǎn)有更多的主內(nèi)存要分配給Flink系統(tǒng),則可以通過(guò)在這些特定節(jié)點(diǎn)上設(shè)置 taskmanager.memory.process.size或taskmanager.memory.flink.sizeconf / flink-conf.yaml中覆蓋默認(rèn)值。

jobmanager.rpc.address = master主機(jī)名

【3】修改masterconf/slaves提供集群中所有節(jié)點(diǎn)的列表,這些列表將用作工作節(jié)點(diǎn)。我的是hadoop2hadoop3。類似于HDFS配置,編輯文件conf / slaves并輸入每個(gè)輔助節(jié)點(diǎn)的IP /主機(jī)名。每個(gè)工作節(jié)點(diǎn)稍后都將運(yùn)行TaskManager。

hadoop2
hadoop3

以上示例說(shuō)明了具有三個(gè)節(jié)點(diǎn)(主機(jī)名hadoop1作為master,hadoop2hadoop3作為worker)的設(shè)置,并顯示了配置文件的內(nèi)容。Flink目錄必須在同一路徑下的每個(gè)工作線程上都可用。您可以使用共享的NFS(網(wǎng)絡(luò)文件系統(tǒng))目錄,也可以將整個(gè)Flink目錄復(fù)制到每個(gè)工作節(jié)點(diǎn)。特別是:
1、每個(gè)JobManager的可用內(nèi)存量jobmanager.heap.size;
2、每個(gè)TaskManager的可用內(nèi)存量(taskmanager.memory.process.size并查看內(nèi)存設(shè)置指南);
3、每臺(tái)計(jì)算機(jī)可用的CPU數(shù)(taskmanager.numberOfTaskSlots);
4、集群中的CPU總數(shù)(parallelism.default);
5、臨時(shí)目錄(io.tmp.dirs);
【4】在master上啟動(dòng)集群(第一行)以及執(zhí)行結(jié)果。下面的腳本在本地節(jié)點(diǎn)上啟動(dòng)JobManager,并通過(guò)SSH連接到slaves文件中列出的所有輔助節(jié)點(diǎn),以在每個(gè)節(jié)點(diǎn)上啟動(dòng)TaskManager?,F(xiàn)在,您的 Flink系統(tǒng)已啟動(dòng)并正在運(yùn)行。現(xiàn)在,在本地節(jié)點(diǎn)上運(yùn)行的JobManager將在配置的RPC端口上接受作業(yè)。要停止Flink,還有一個(gè)stop-cluster.sh腳本。

 [root@hadoop1 flink-1.10.1]# bin/start-cluster.sh 
 Starting cluster.
 Starting standalonesession daemon on host hadoop1.
 Starting taskexecutor daemon on host hadoop2.
 Starting taskexecutor daemon on host hadoop3.

【5】Flink界面展示 :進(jìn)入8081端口,例如:http://hadoop1:8081/ 或者通過(guò)jps命令查看服務(wù)也可行。
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)Standalone集群架構(gòu)展示:client客戶端提交任務(wù)給JobManagerJobManager負(fù)責(zé)Flink集群計(jì)算資源管理,并分發(fā)任務(wù)給TaskManager執(zhí)行,TaskManager定期向JobManager匯報(bào)狀態(tài)。
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)

運(yùn)行 flink示例程序

批處理示例:提交Flink的批處理examples程序:也可以在頁(yè)面中進(jìn)行提交,但是作為一名NB的程序員就使用命令

 [root@hadoop1 flink-1.10.1]# bin/flink run examples/batch/WordCount.jar

執(zhí)行上面的命令后,就會(huì)顯示如下信息,這是Flink提供的examples下的批處理例子程序,統(tǒng)計(jì)單詞個(gè)數(shù)。

[root@hadoop1 flink-1.10.1]# bin/flink run examples/batch/WordCount.jar
Executing WordCount example with default input data set.
Use --input to specify file input.
Printing result to stdout. Use --output to specify output path.
Job has been submitted with JobID 99f4c579947a66884ec269ddf5f5b0ed
Program execution finished
Job with JobID 99f4c579947a66884ec269ddf5f5b0ed has finished.
Job Runtime: 795 ms
Accumulator Results:
- b70332353f355cf0464b0eba21f61075 (java.util.ArrayList) [170 elements]


(a,5)
(action,1)
(after,1)
(against,1)
(all,2)
(and,12)
(arms,1)
(arrows,1)
(awry,1)
(ay,1)
(bare,1)
(be,4)
(bear,3)
(bodkin,1)
(bourn,1)
(but,1)
(by,2)
(calamity,1)
(cast,1)
(coil,1)
(come,1)
(conscience,1)
(consummation,1)
(contumely,1)
(country,1)
(cowards,1)
(currents,1)
......

得到結(jié)果,這里統(tǒng)計(jì)的是默認(rèn)的數(shù)據(jù)集,可以通過(guò)--input --output指定輸入輸出。我們可以在頁(yè)面中查看運(yùn)行的情況:
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)流處理示例:?jiǎn)?dòng)nc服務(wù)器:

[root@hadoop1 flink-1.10.1]# nc -lk 9000

提交Flink的批處理examples程序:

[root@hadoop1 flink-1.10.1]# bin/flink run examples/streaming/SocketWindowWordCount.jar  --hostname hadoop1  --port 9000

這是Flink提供的examples下的流處理例子程序,接收socket數(shù)據(jù)傳入,統(tǒng)計(jì)單詞個(gè)數(shù)。在nc端隨意寫入單詞

 [root@hadoop1 flink-1.10.1]# nc -lk 9000
 g
 s

進(jìn)入slave節(jié)點(diǎn)(hadoop2,hadoop3),進(jìn)入Flink安裝目錄輸入如下命令,查看實(shí)時(shí)數(shù)據(jù)變化

[root@hadoop2 flink-1.10.1]# tail -f log/flink-*-taskexecutor-*.out
s : 1
 : 2
w : 1
d : 1
g : 1
d : 1

停止Flink

[root@hadoop1 flink-1.10.1]# bin/stop-cluster.sh

Flinkweb中查看運(yùn)行的job
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)

將 JobManager / TaskManager 實(shí)例添加到集群(擴(kuò)展)

您可以使用bin/jobmanager.shbin/taskmanager.sh腳本將JobManagerTaskManager實(shí)例添加到正在運(yùn)行的集群中。添加JobManager(確保在要啟動(dòng)/停止相應(yīng)實(shí)例的主機(jī)上調(diào)用這些腳本)

[root@hadoop1 flink-1.10.1]# bin/jobmanager.sh ((start|start-foreground) [host] [webui-port])|stop|stop-all

添加任務(wù)管理器

[root@hadoop1 flink-1.10.1]# bin/taskmanager.sh start|start-foreground|stop|stop-all

YARN模式

在企業(yè)中,經(jīng)常需要將Flink集群部署到YARN,因?yàn)榭梢允褂?code>YARN來(lái)管理所有計(jì)算資源。而且Spark程序也可以部署到YARN上。CliFrontend是所有job的入口類,通過(guò)解析傳遞的參數(shù)(jar包,mainClass等),讀取flink的環(huán)境,配置信息等,封裝成PackagedProgram,最終通過(guò)ClusterClient提交給Flink集群。Flink運(yùn)行在YARN上,提供了兩種方式:
第一種使用yarn-session模式來(lái)快速提交作業(yè)到YARN集群。如下,在Yarn中初始化一個(gè)flink集群,開辟指定的資源,以后提交任務(wù)都向這里提交,這個(gè)flink集群會(huì)常駐在Yarn集群中,除非手動(dòng)停止。共享DispatcherResourceManager,共享資源。有大量的小作業(yè),適合使用這種方式;
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)
YarnSessionClusterEntrypointFlinkYarn上的線程。ApplicationMasterJobManager。YarnTaskExecutorRunner負(fù)責(zé)接收subTask并運(yùn)行,是TaskManager
【1】修改Hadoopetc/hadoop/yarn-site.xml,添加該配置表示內(nèi)存超過(guò)分配值,是否將任務(wù)殺掉。默認(rèn)為true。運(yùn)行Flink程序,很容易超過(guò)分配的內(nèi)存。

<property> 
    <name>yarn.nodemanager.vmem-check-enabled</name>    
    <value>false</value> 
</property> 

【2】 添加環(huán)境變量

//查看是否配置HADOOP_CONF_DIR,我這里沒(méi)有配置輸出為空
[root@hadoop1 hadoop-2.7.2]# echo $HADOOP_CONF_DIR

//在系統(tǒng)變量中添加 HADOOP_CONF_DIR
[root@hadoop1 hadoop-2.7.2]# vim /etc/profile
//添加如下內(nèi)容,wq保存退出
export HADOOP_CONF_DIR=$HADOOP_HOME/conf/
//刷新 /etc/profile
[root@hadoop1 hadoop-2.7.2]# source /etc/profile

//重新查看是否配置HADOOP_CONF_DIR
[root@hadoop1 hadoop-2.7.2]# echo $HADOOP_CONF_DIR
/opt/module/hadoop-2.7.2/conf/

【3】啟動(dòng)HDFSYARN集群。通過(guò)jps查看啟動(dòng)狀況。關(guān)閉flink的其他集群。

[root@hadoop1 hadoop-2.7.2]# sbin/start-all.sh
[root@hadoop2 hadoop-2.7.2]# jps
10642 NodeManager
11093 Jps
10838 ResourceManager
10535 DataNode
10168 TaskManagerRunner

【4】將官方指定Pre-bundled Hadoop 2.7.5包放到flinklib目錄下。使用yarn-session模式提交作業(yè)
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)
使用Flink中的yarn-sessionyarn客戶端),會(huì)啟動(dòng)兩個(gè)必要服務(wù)JobManagerTaskManagers;
客戶端通過(guò)yarn-session提交作業(yè);
yarn-session會(huì)一直啟動(dòng),不停地接收客戶端提交的作用。

-n 表示申請(qǐng)2個(gè)容器
-s 表示每個(gè)容器啟動(dòng)多少個(gè)slot
-tm 表示每個(gè)TaskManager申請(qǐng)800M內(nèi)存
-nm yarn 的 appName,
-d detached表示以后臺(tái)程序方式運(yùn)行

如下表示啟動(dòng)一個(gè)yarn session集群,每個(gè)JM1G,TM的內(nèi)存是1G

[root@hadoop1 flink-1.10.1]# bin/yarn-session.sh -n 2 -jm 1024m -tm 1024m -d

客戶端默認(rèn)是attach模式,不會(huì)退出 ??梢?code>ctrl+c退出,然后再通過(guò)如下命令連上來(lái)。或者啟動(dòng)的時(shí)候用-d則為detached模式

./bin/yarn-session.sh -id application_1594027553009_0001(這個(gè)id來(lái)自下面hadoop集群)

Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)Yarn上顯示為Flink session cluster,一致處于運(yùn)行狀態(tài)。
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)點(diǎn)擊ApplicationMaster就會(huì)進(jìn)入Flink集群
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)啟動(dòng)命令行中也會(huì)顯示如下的JobManager啟動(dòng)的Web界面

JobManager Web Interface: http://hadoop1:34431

Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)

然后我們可以通過(guò)jps來(lái)看下當(dāng)前的進(jìn)程,其中YarnSessionClusterEntrypoint就是我們Yarn Session的分布式集群。

[root@hadoop1 flink-1.10.1]# jps
69923 NodeManager
81267 Jps
69394 NameNode
69531 DataNode
80571 FlinkYarnSessionCli
80765 YarnSessionClusterEntrypoint

/tmp下生成了一個(gè)文件

Flink應(yīng)用部署到Flink On Yarn 之 session方式中。

[root@hadoop1 flink-1.10.1]# bin/flink run -d examples/streaming/WordCount.jar 

Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)
查看運(yùn)行結(jié)果:
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)
Flink On Yarnsession部署方式集群停止:關(guān)閉Yarn就會(huì)關(guān)閉Flink集群。。。

第二種模式:使用Per-JOBYarn分離模式(與當(dāng)前客戶端無(wú)關(guān),當(dāng)客戶端提交完任務(wù)就結(jié)束,不用等到Flink應(yīng)用執(zhí)行完畢)提交作業(yè):每次提交都會(huì)創(chuàng)建一個(gè)新的flink集群,任務(wù)之間相互獨(dú)立,互不影響,方便管理。任務(wù)執(zhí)行完成之后創(chuàng)建的集群也會(huì)消失。 直接提交任務(wù)給YARN,獨(dú)享DispatcherResourceManager。按需要申請(qǐng)資源。適合執(zhí)行時(shí)間較長(zhǎng)的大作業(yè)。
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)
AM啟動(dòng)類是YarnJobClusterEntrypoint。YarnTaskExecutorRunner負(fù)責(zé)接收subTask,就是TaskManager。需要打開hadoopyarn分布式集群。不需要啟動(dòng)flink分布式集群,它會(huì)自動(dòng)啟動(dòng)flink分布式集群。

[root@hadoop1 flink-1.10.1]# bin/flink run -m yarn-cluster -d ./examples/streaming/WordCount.jar
2020-07-13 03:21:50,479 WARN  org.apache.flink.yarn.cli.FlinkYarnSessionCli                 - The configuration directory ('/usr/local/soft/flink-1.10.1/conf') already contains a LOG4J config file.If you want to use logback, then please delete or rename the log configuration file.
2020-07-13 03:21:50,479 WARN  org.apache.flink.yarn.cli.FlinkYarnSessionCli                 - The configuration directory ('/usr/local/soft/flink-1.10.1/conf') already contains a LOG4J config file.If you want to use logback, then please delete or rename the log configuration file.
Executing WordCount example with default input data set.
Use --input to specify file input.
Printing result to stdout. Use --output to specify output path.
2020-07-13 03:21:50,707 INFO  org.apache.hadoop.yarn.client.RMProxy                         - Connecting to ResourceManager at hadoop2/192.168.52.129:8032
2020-07-13 03:21:50,791 INFO  org.apache.flink.yarn.YarnClusterDescriptor                   - No path for the flink jar passed. Using the location of class org.apache.flink.yarn.YarnClusterDescriptor to locate the jar
2020-07-13 03:21:50,928 WARN  org.apache.flink.yarn.YarnClusterDescriptor                   - Neither the HADOOP_CONF_DIR nor the YARN_CONF_DIR environment variable is set. The Flink YARN Client needs one of these to be set to properly load the Hadoop configuration for accessing YARN.
2020-07-13 03:21:51,001 INFO  org.apache.flink.yarn.YarnClusterDescriptor                   - Cluster specification: ClusterSpecification{masterMemoryMB=1024, taskManagerMemoryMB=1728, slotsPerTaskManager=1}
2020-07-13 03:21:53,906 INFO  org.apache.flink.yarn.YarnClusterDescriptor

-ynyarncontainer表示TaskManager的個(gè)數(shù);
-yquyarnqueue指定yarn的隊(duì)列;
-ysyarnslots每一個(gè)TaskManager對(duì)應(yīng)的slot個(gè)數(shù);

上傳成功之后,我們可以在Hadoop的圖形化界面:http://hadoop2:8088/cluster/apps 中看到當(dāng)前任務(wù)的信息;
Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建,Flink,flink,大數(shù)據(jù)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-753655.html

到了這里,關(guān)于Flink 本地單機(jī)/Standalone集群/YARN模式集群搭建的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Flink--2、Flink部署(Yarn集群搭建下的會(huì)話模式部署、單作業(yè)模式部署、應(yīng)用模式部署)

    Flink--2、Flink部署(Yarn集群搭建下的會(huì)話模式部署、單作業(yè)模式部署、應(yīng)用模式部署)

    ?????????????????????? 星光下的趕路人star的個(gè)人主頁(yè) ?????????????????????? 你必須贏過(guò),才可以說(shuō)不在乎輸贏 Flink提交作業(yè)和執(zhí)行任務(wù),需要幾個(gè)關(guān)鍵組件: 客戶端(Client):代碼由客戶端獲取并做轉(zhuǎn)換,之后提交給

    2024年02月09日
    瀏覽(23)
  • 搭建單機(jī)版K8S運(yùn)行Flink集群

    環(huán)境要求 操作系統(tǒng): CentOS 7.x 64位 Kubernetes版本:v1.16.2 Docker版本:19.03.13-ce Flink版本:1.14.3 使用中國(guó)YUM及鏡像源? 1.安裝Kubernetes: 1.1 創(chuàng)建文件:/etc/yum.repos.d/kubernetes.repo,內(nèi)容如下: 1.2??執(zhí)行安裝命令: ?1.3?啟動(dòng)kubelet服務(wù)并設(shè)置開機(jī)自啟: 2.安裝Docker: 2.1 創(chuàng)建文件:

    2023年04月26日
    瀏覽(21)
  • Flink的Standalone集群部署

    Flink的Standalone集群部署

    在上篇進(jìn)行單機(jī)的Standalone部署-Flink的Standalone部署實(shí)戰(zhàn),本篇介紹Flink的Standalone集群部署。 Flink集群為 主從架構(gòu) ,主是JobManager,從為TaskManager,支持一主多從。 本次搭建環(huán)境為3臺(tái)機(jī)器,信息如下表所示。 IP 服務(wù) 描述 192.168. 184.37 JobManager、TaskManager 192.168. 184.30 TaskManager 192

    2024年02月11日
    瀏覽(22)
  • 深入理解 Flink(五)Flink Standalone 集群?jiǎn)?dòng)源碼剖析

    深入理解 Flink(五)Flink Standalone 集群?jiǎn)?dòng)源碼剖析

    深入理解 Flink 系列文章已完結(jié),總共八篇文章,直達(dá)鏈接: 深入理解 Flink (一)Flink 架構(gòu)設(shè)計(jì)原理 深入理解 Flink (二)Flink StateBackend 和 Checkpoint 容錯(cuò)深入分析 深入理解 Flink (三)Flink 內(nèi)核基礎(chǔ)設(shè)施源碼級(jí)原理詳解 深入理解 Flink (四)Flink Time+WaterMark+Window 深入分析 深入

    2024年02月02日
    瀏覽(32)
  • Flink-----Standalone會(huì)話模式作業(yè)提交流程

    1.Flink的Slot特點(diǎn): 均分隔離內(nèi)存,不隔離CPU 可以共享: 同一個(gè)job中,不同算子的子任務(wù)才可以共享同一個(gè)slot,同時(shí)在運(yùn)行的前提是,屬于同一個(gè)slot共享組,默認(rèn)都是“default” 2.Slot的數(shù)量 與 并行度 的關(guān)系 slot 是一種靜態(tài)的概念,表示最大的并發(fā)上線 并行度是個(gè)動(dòng)態(tài)的概念

    2024年02月12日
    瀏覽(25)
  • 【Flink-1.17-教程】-【二】Flink 集群搭建、Flink 部署、Flink 運(yùn)行模式

    【Flink-1.17-教程】-【二】Flink 集群搭建、Flink 部署、Flink 運(yùn)行模式

    集群規(guī)劃: 具體安裝部署步驟如下: 1、下載并解壓安裝包 (1)下載安裝包 flink-1.17.0-bin-scala_2.12.tgz,將該 jar 包上傳到 hadoop102 節(jié)點(diǎn)服務(wù)器的 /opt/software 路徑上。 (2)在 /opt/software 路徑上解壓 flink-1.17.0-bin-scala_2.12.tgz 到 /opt/module 路徑上。 2、修改集群配置 (1)進(jìn)入 conf 路

    2024年01月18日
    瀏覽(38)
  • Flink-1.17.0(Standalone)集群安裝-大數(shù)據(jù)學(xué)習(xí)系列(四)

    Flink-1.17.0(Standalone)集群安裝-大數(shù)據(jù)學(xué)習(xí)系列(四)

    機(jī)器信息 Hostname k8s-master k8s-node1 k8s-node2 外網(wǎng)IP 106.15.186.55 139.196.15.28 47.101.63.122 內(nèi)網(wǎng)IP 172.25.73.65 172.25.73.64 172.25.73.66 master slave1 slave2 slave3 安裝Scala 從官網(wǎng)( The Scala Programming Language )下載?Scala版本 鏈接:?https://pan.baidu.com/s/1-GAeyyDOPjhsWhIp_VV7yg?pwd=3fws?提取碼:?3fws? 2.1?在集群(

    2024年02月08日
    瀏覽(19)
  • Flink三種模式介紹&集群的搭建

    Flink三種模式介紹&集群的搭建

    目錄 Flink是什么? Flink部署模式 會(huì)話模式(Session Mode ) 單作業(yè)模式(Per-Job Mode) 應(yīng)用模式(Application Mode) Flink集群搭建 Standalone運(yùn)行模式? 會(huì)話模式 單作業(yè)模式部署 應(yīng)用模式部署 YARN運(yùn)行模式 ?會(huì)話模式部署 單作業(yè)模式部署 應(yīng)用模式部署 Flink是“數(shù)據(jù)流上的有狀態(tài)計(jì)算”

    2024年02月09日
    瀏覽(31)
  • k8s 搭建基于session模式的flink集群

    k8s 搭建基于session模式的flink集群

    不廢話直接上代碼,都是基于官網(wǎng)的,在此記錄一下?Kubernetes | Apache Flink flink-configuration-configmap.yaml jobmanager-service.yaml ?Optional service, which is only necessary for non-HA mode. Session cluster resource definitions?# jobmanager-session-deployment-non-ha.yaml taskmanager-session-deployment.yaml ?kubectl apply -f xxx.ya

    2024年02月10日
    瀏覽(23)
  • 大數(shù)據(jù)Flink(五十七):Yarn集群環(huán)境(生產(chǎn)推薦)

    大數(shù)據(jù)Flink(五十七):Yarn集群環(huán)境(生產(chǎn)推薦)

    文章目錄 Yarn集群環(huán)境(生產(chǎn)推薦) 一、準(zhǔn)備工作

    2024年02月13日
    瀏覽(26)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包