国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

這篇具有很好參考價值的文章主要介紹了尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

  • 尚硅谷大數(shù)據(jù)技術(shù)-教程-學(xué)習(xí)路線-筆記匯總表【課程資料下載】
  • 視頻地址:尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程從入門到精通_嗶哩嗶哩_bilibili
  1. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記01【Flink概述、Flink快速上手】
  2. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】
  3. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【】
  4. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記04【】
  5. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記05【】
  6. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記06【】
  7. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記07【】
  8. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記08【】

目錄

基礎(chǔ)篇

第03章 Flink部署

P011【011_Flink部署_集群角色】03:07

P012【012_Flink部署_集群搭建_集群啟動】14:22

P013【013_Flink部署_集群搭建_WebUI提交作業(yè)】13:58

P014【014_Flink部署_集群搭建_命令行提交作業(yè)】03:46

P015【015_Flink部署_部署模式介紹】10:17

P016【016_Flink部署_Standalone運行模式】08:16

P017【017_Flink部署_YARN運行模式_環(huán)境準(zhǔn)備】07:41

P018【018_Flink部署_YARN運行模式_會話模式】18:11

P019【019_Flink部署_YARN運行模式_會話模式的停止】04:10

P020【020_Flink部署_YARN運行模式_單作業(yè)模式】09:49

P021【021_Flink部署_YARN運行模式_應(yīng)用模式】12:51

P022【022_Flink部署_歷史服務(wù)器】08:11


基礎(chǔ)篇

第03章 Flink部署

P011【011_Flink部署_集群角色】03:07

第 3 章 Flink 部署

3.1 集群角色

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

P012【012_Flink部署_集群搭建_集群啟動】14:22

表3-1 集群角色分配

節(jié)點服務(wù)器

hadoop102

hadoop103

hadoop104

角色

JobManager

TaskManager

TaskManager

TaskManager

[atguigu@node001 module]$ cd flink
[atguigu@node001 flink]$ cd flink-1.17.0/
[atguigu@node001 flink-1.17.0]$ bin/start-cluster.sh
Starting cluster.
Starting standalonesession daemon on host node001.
Starting taskexecutor daemon on host node001.
Starting taskexecutor daemon on host node002.
Starting taskexecutor daemon on host node003.
[atguigu@node001 flink-1.17.0]$ jpsall 
================ node001 ================
3408 Jps
2938 StandaloneSessionClusterEntrypoint
3276 TaskManagerRunner
================ node002 ================
2852 TaskManagerRunner
2932 Jps
================ node003 ================
2864 TaskManagerRunner
2944 Jps
[atguigu@node001 flink-1.17.0]$ 

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

P013【013_Flink部署_集群搭建_WebUI提交作業(yè)】13:58

3.2.2 向集群提交作業(yè)

<build>
    <plugins>
        <plugin>
            <groupId>org.apache.maven.plugins</groupId>
            <artifactId>maven-shade-plugin</artifactId>
            <version>3.2.4</version>
            <executions>
                <execution>
                    <phase>package</phase>
                    <goals>
                        <goal>shade</goal>
                    </goals>
                    <configuration>
                        <artifactSet>
                            <excludes>
                                <exclude>com.google.code.findbugs:jsr305</exclude>
                                <exclude>org.slf4j:*</exclude>
                                <exclude>log4j:*</exclude>
                            </excludes>
                        </artifactSet>
                        <filters>
                            <filter>
                                <!-- Do not copy the signatures in the META-INF folder.
                                Otherwise, this might cause SecurityExceptions when using the JAR. -->
                                <artifact>*:*</artifact>
                                <excludes>
                                    <exclude>META-INF/*.SF</exclude>
                                    <exclude>META-INF/*.DSA</exclude>
                                    <exclude>META-INF/*.RSA</exclude>
                                </excludes>
                            </filter>
                        </filters>
                        <transformers combine.children="append">
                            <transformer
                                    implementation="org.apache.maven.plugins.shade.resource.ServicesResourceTransformer">
                            </transformer>
                        </transformers>
                    </configuration>
                </execution>
            </executions>
        </plugin>
    </plugins>
</build>

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

com.atguigu.wc.WordCountStreamUnboundedDemo

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

P014【014_Flink部署_集群搭建_命令行提交作業(yè)】03:46

3.2.2 向集群提交作業(yè)

4)命令行提交作業(yè)

連接成功
Last login: Fri Jun 16 14:44:01 2023 from 192.168.10.1
[atguigu@node001 ~]$ cd /opt/module/flink/flink-1.17.0/
[atguigu@node001 flink-1.17.0]$ cd bin
[atguigu@node001 bin]$ ./start-cluster.sh 
Starting cluster.
Starting standalonesession daemon on host node001.
Starting taskexecutor daemon on host node001.
Starting taskexecutor daemon on host node002.
Starting taskexecutor daemon on host node003.
[atguigu@node001 bin]$ jpsall 
================ node001 ================
2723 TaskManagerRunner
2855 Jps
2380 StandaloneSessionClusterEntrypoint
================ node002 ================
2294 TaskManagerRunner
2367 Jps
================ node003 ================
2292 TaskManagerRunner
2330 Jps
[atguigu@node001 bin]$ cd ..
[atguigu@node001 flink-1.17.0]$ bin/flink run -m node001:8081 -c com.atguigu.wc.WordCountStreamUnboundedDemo ./
bin/        conf/       examples/   lib/        LICENSE     licenses/   log/        NOTICE      opt/        plugins/    README.txt  
[atguigu@node001 flink-1.17.0]$ bin/flink run -m node001:8081 -c com.atguigu.wc.WordCountStreamUnboundedDemo ../
flink-1.17.0/ jar/          
[atguigu@node001 flink-1.17.0]$ bin/flink run -m node001:8081 -c com.atguigu.wc.WordCountStreamUnboundedDemo ../jar/FlinkTutorial-1.17-1.0-SNAPSHOT.jar 
Job has been submitted with JobID 59ae9d6532523b0c48cdb8b6c9105356

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

P015【015_Flink部署_部署模式介紹】10:17

3.3 部署模式

在一些應(yīng)用場景中,對于集群資源分配和占用的方式,可能會有特定的需求。Flink為各種場景提供了不同的部署模式,主要有以下三種:會話模式Session Mode單作業(yè)模式(Per-Job Mode)、應(yīng)用模式(Application Mode)。

它們的區(qū)別主要在于:集群的生命周期以及資源的分配方式;以及應(yīng)用的main方法到底在哪里執(zhí)行——客戶端(Client)還是JobManager。

P016【016_Flink部署_Standalone運行模式】08:16

3.4 Standalone運行模式(了解)

獨立模式是獨立運行的,不依賴任何外部的資源管理平臺;當(dāng)然獨立也是有代價的:如果資源不足,或者出現(xiàn)故障,沒有自動擴展或重分配資源的保證,必須手動處理。所以獨立模式一般只用在開發(fā)測試或作業(yè)非常少的場景下

[atguigu@node001 ~]$ cd /opt/module/flink/flink-1.17.0/bin
[atguigu@node001 bin]$ ./stop-cluster.sh 
Stopping taskexecutor daemon (pid: 2723) on host node001.
Stopping taskexecutor daemon (pid: 2294) on host node002.
Stopping taskexecutor daemon (pid: 2292) on host node003.
Stopping standalonesession daemon (pid: 2380) on host node001.
[atguigu@node001 bin]$ jpsall 
================ node001 ================
5120 Jps
================ node002 ================
3212 Jps
================ node003 ================
3159 Jps
[atguigu@node001 bin]$ ls
bash-java-utils.jar  flink             historyserver.sh          kubernetes-session.sh      sql-client.sh      start-cluster.sh           stop-zookeeper-quorum.sh  zookeeper.sh
config.sh            flink-console.sh  jobmanager.sh             kubernetes-taskmanager.sh  sql-gateway.sh     start-zookeeper-quorum.sh  taskmanager.sh
find-flink-home.sh   flink-daemon.sh   kubernetes-jobmanager.sh  pyflink-shell.sh           standalone-job.sh  stop-cluster.sh            yarn-session.sh
[atguigu@node001 bin]$ cd ../lib/
[atguigu@node001 lib]$ ls
flink-cep-1.17.0.jar              flink-dist-1.17.0.jar        flink-table-api-java-uber-1.17.0.jar   FlinkTutorial-1.17-1.0-SNAPSHOT.jar  log4j-core-2.17.1.jar
flink-connector-files-1.17.0.jar  flink-json-1.17.0.jar        flink-table-planner-loader-1.17.0.jar  log4j-1.2-api-2.17.1.jar             log4j-slf4j-impl-2.17.1.jar
flink-csv-1.17.0.jar              flink-scala_2.12-1.17.0.jar  flink-table-runtime-1.17.0.jar         log4j-api-2.17.1.jar
[atguigu@node001 lib]$ cd ../
[atguigu@node001 flink-1.17.0]$ bin/standalone-job.sh start --job-classname com.atguigu.wc.WordCountStreamUnboundedDemo
Starting standalonejob daemon on host node001.
[atguigu@node001 flink-1.17.0]$ jpsall 
================ node001 ================
5491 StandaloneApplicationClusterEntryPoint
5583 Jps
================ node002 ================
3326 Jps
================ node003 ================
3307 Jps
[atguigu@node001 flink-1.17.0]$ bin/taskmanager.sh 
Usage: taskmanager.sh (start|start-foreground|stop|stop-all)
[atguigu@node001 flink-1.17.0]$ bin/taskmanager.sh start
Starting taskexecutor daemon on host node001.
[atguigu@node001 flink-1.17.0]$ jpsall 
================ node001 ================
5491 StandaloneApplicationClusterEntryPoint
5995 Jps
5903 TaskManagerRunner
================ node002 ================
3363 Jps
================ node003 ================
3350 Jps
[atguigu@node001 flink-1.17.0]$ bin/taskmanager.sh stop
Stopping taskexecutor daemon (pid: 5903) on host node001.
[atguigu@node001 flink-1.17.0]$ bin/standalone-job.sh stop
No standalonejob daemon (pid: 5491) is running anymore on node001.
[atguigu@node001 flink-1.17.0]$ xcall jps
=============== node001 ===============
6682 Jps
=============== node002 ===============
3429 Jps
=============== node003 ===============
3419 Jps
[atguigu@node001 flink-1.17.0]$ 

P017【017_Flink部署_YARN運行模式_環(huán)境準(zhǔn)備】07:41

3.5 YARN運行模式(重點)

YARN上部署的過程是:客戶端把Flink應(yīng)用提交給Yarn的ResourceManager,Yarn的ResourceManager會向Yarn的NodeManager申請容器。在這些容器上,F(xiàn)link會部署JobManager和TaskManager的實例,從而啟動集群。Flink會根據(jù)運行在JobManger上的作業(yè)所需要的Slot數(shù)量動態(tài)分配TaskManager資源。

[atguigu@node001 flink-1.17.0]$ source /etc/profile.d/my_env.sh 
[atguigu@node001 flink-1.17.0]$ myhadoop.sh s
Input Args Error...
[atguigu@node001 flink-1.17.0]$ myhadoop.sh start
 ================ 啟動 hadoop集群 ================
 ---------------- 啟動 hdfs ----------------
Starting namenodes on [node001]
Starting datanodes
Starting secondary namenodes [node003]
 --------------- 啟動 yarn ---------------
Starting resourcemanager
Starting nodemanagers
 --------------- 啟動 historyserver ---------------
[atguigu@node001 flink-1.17.0]$ jpsall 
================ node001 ================
9200 JobHistoryServer
8416 NameNode
8580 DataNode
9284 Jps
8983 NodeManager
================ node002 ================
3892 ResourceManager
3690 DataNode
4365 Jps
4015 NodeManager
================ node003 ================
3680 DataNode
3778 SecondaryNameNode
3911 NodeManager
4044 Jps
[atguigu@node001 flink-1.17.0]$ 

P018【018_Flink部署_YARN運行模式_會話模式】18:11

[atguigu@node001 bin]$ ./yarn-session.sh --help
[atguigu@node001 bin]$ ./yarn-session.sh
[atguigu@node001 bin]$ ./yarn-session.sh -d -nm test

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

P019【019_Flink部署_YARN運行模式_會話模式的停止】04:10

3.5.3 單作業(yè)模式部署

在YARN環(huán)境中,由于有了外部平臺做資源調(diào)度,所以我們也可以直接向YARN提交一個單獨的作業(yè),從而啟動一個Flink集群。

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

P020【020_Flink部署_YARN運行模式_單作業(yè)模式】09:49

3.5.3 單作業(yè)模式部署

(1)執(zhí)行命令提交作業(yè)

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

P021【021_Flink部署_YARN運行模式_應(yīng)用模式】12:51

3.5.4 應(yīng)用模式部署

應(yīng)用模式同樣非常簡單,與單作業(yè)模式類似,直接執(zhí)行flink run-application命令即可。

[atguigu@node001 flink-1.17.0]$ bin/flink run-application -t yarn-application -c com.atguigu.wc.WordCountStreamUnboundedDemo ./FlinkTutorial-1.17-1.0-SNAPSHOT.jar 
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/opt/module/flink/flink-1.17.0/lib/log4j-slf4j-impl-2.17.1.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/module/hadoop/hadoop-3.1.3/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
2023-06-19 14:31:05,693 INFO  org.apache.flink.yarn.cli.FlinkYarnSessionCli                [] - Found Yarn properties file under /tmp/.yarn-properties-atguigu.
2023-06-19 14:31:05,693 INFO  org.apache.flink.yarn.cli.FlinkYarnSessionCli                [] - Found Yarn properties file under /tmp/.yarn-properties-atguigu.
2023-06-19 14:31:06,142 WARN  org.apache.flink.yarn.configuration.YarnLogConfigUtil        [] - The configuration directory ('/opt/module/flink/flink-1.17.0/conf') already contains a LOG4J config file.If you want to use logback, then please delete or rename the log configuration file.
2023-06-19 14:31:06,632 INFO  org.apache.hadoop.yarn.client.RMProxy                        [] - Connecting to ResourceManager at node002/192.168.10.102:8032
2023-06-19 14:31:07,195 INFO  org.apache.flink.yarn.YarnClusterDescriptor                  [] - No path for the flink jar passed. Using the location of class org.apache.flink.yarn.YarnClusterDescriptor to locate the jar

[atguigu@node001 flink-1.17.0]$ bin/flink run-application -t yarn-application -c com.atguigu.wc.WordCountStreamUnboundedDemo ./FlinkTutorial-1.17-1.0-SNAPSHOT.jar
SLF4J: Class path contains multiple SLF4J bindings.

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

[atguigu@node001 flink-1.17.0]$ bin/flink run-application -t yarn-application -Dyarn.provided.lib.dirs="hdfs://node001:8020/flink-dist" -c com.atguigu.wc.WordCountStreamUnboundedDemo hdfs://node001:8020/flink-jars/FlinkTutorial-1.17-1.0-SNAPSHOT.jar

P022【022_Flink部署_歷史服務(wù)器】08:11

3.6 K8S 運行模式(了解)

容器化部署是如今業(yè)界流行的一項技術(shù),基于Docker鏡像運行能夠讓用戶更加方便地對應(yīng)用進(jìn)行管理和運維。容器管理工具中最為流行的就是Kubernetes(k8s),而Flink也在最近的版本中支持了k8s部署模式。基本原理與YARN是類似的,具體配置可以參見官網(wǎng)說明,這里我們就不做過多講解了。

3.7 歷史服務(wù)器

運行 Flink job 的集群一旦停止,只能去 yarn 或本地磁盤上查看日志,不再可以查看作業(yè)掛掉之前的運行的 Web UI,很難清楚知道作業(yè)在掛的那一刻到底發(fā)生了什么。如果我們還沒有 Metrics 監(jiān)控的話,那么完全就只能通過日志去分析和定位問題了,所以如果能還原之前的 Web UI,我們可以通過 UI 發(fā)現(xiàn)和定位一些問題。

Flink提供了歷史服務(wù)器,用來在相應(yīng)的 Flink 集群關(guān)閉后查詢已完成作業(yè)的統(tǒng)計信息。我們都知道只有當(dāng)作業(yè)處于運行中的狀態(tài),才能夠查看到相關(guān)的WebUI統(tǒng)計信息。通過 History Server 我們才能查詢這些已完成作業(yè)的統(tǒng)計信息,無論是正常退出還是異常退出。

此外,它對外提供了 REST API,它接受 HTTP 請求并使用 JSON 數(shù)據(jù)進(jìn)行響應(yīng)。Flink 任務(wù)停止后,JobManager 會將已經(jīng)完成任務(wù)的統(tǒng)計信息進(jìn)行存檔,History Server 進(jìn)程則在任務(wù)停止后可以對任務(wù)統(tǒng)計信息進(jìn)行查詢。比如:最后一次的 Checkpoint、任務(wù)運行時的相關(guān)配置。

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】

[atguigu@node001 flink-1.17.0]$ bin/historyserver.sh start
Starting historyserver daemon on host node001.
[atguigu@node001 flink-1.17.0]$ bin/flink run -t yarn-per-job -d -c com.atguigu.wc.WordCountStreamUnboundedDemo ../jar/FlinkTutorial-1.17-1.0-SNAPSHOT.jar
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/opt/module/flink/flink-1.17.0/lib/log4j-slf4j-impl-2.17.1.jar!/org/slf4j/impl/StaticLoggerBinder.class]

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】文章來源地址http://www.zghlxwxcb.cn/news/detail-501211.html

到了這里,關(guān)于尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 尚硅谷大數(shù)據(jù)技術(shù)Hadoop教程-筆記02【Hadoop-入門】

    尚硅谷大數(shù)據(jù)技術(shù)Hadoop教程-筆記02【Hadoop-入門】

    視頻地址: 尚硅谷大數(shù)據(jù)Hadoop教程(Hadoop 3.x安裝搭建到集群調(diào)優(yōu)) 尚硅谷大數(shù)據(jù)技術(shù)Hadoop教程-筆記01【大數(shù)據(jù)概論】 尚硅谷大數(shù)據(jù)技術(shù)Hadoop教程-筆記02【Hadoop-入門】 尚硅谷大數(shù)據(jù)技術(shù)Hadoop教程-筆記03【Hadoop-HDFS】 尚硅谷大數(shù)據(jù)技術(shù)Hadoop教程-筆記04【Hadoop-MapReduce】 尚硅谷

    2024年02月06日
    瀏覽(57)
  • Flink1.17.0數(shù)據(jù)流

    Flink1.17.0數(shù)據(jù)流

    官網(wǎng)介紹 Apache Flink 是一個框架和分布式處理引擎,用于對無界和有界數(shù)據(jù)流進(jìn)行有狀態(tài)計算。Flink 被設(shè)計為在所有常見的集群環(huán)境中運行,以內(nèi)存中的速度和任何規(guī)模執(zhí)行計算。 1.無限流有一個開始,但沒有定義的結(jié)束。它們不會在生成數(shù)據(jù)時終止并提供數(shù)據(jù)。必須連續(xù)處

    2024年02月11日
    瀏覽(26)
  • 尚硅谷Docker實戰(zhàn)教程-筆記06【Docker容器數(shù)據(jù)卷】

    尚硅谷Docker實戰(zhàn)教程-筆記06【Docker容器數(shù)據(jù)卷】

    尚硅谷大數(shù)據(jù)技術(shù)-教程-學(xué)習(xí)路線-筆記匯總表【課程資料下載】 視頻地址:尚硅谷Docker實戰(zhàn)教程(docker教程天花板)_嗶哩嗶哩_bilibili 尚硅谷Docker實戰(zhàn)教程-筆記01【理念簡介、官網(wǎng)介紹、平臺入門圖解、平臺架構(gòu)圖解】 尚硅谷Docker實戰(zhàn)教程-筆記02【安裝docker、鏡像加速器配置

    2024年02月16日
    瀏覽(50)
  • flink1.17安裝

    官網(wǎng)地址: https://nightlies.apache.org/flink/flink-docs-release-1.17/zh//docs/try-flink/local_installation/ ps:只能安裝openjdk11,昨天安裝的oracle jdk17,結(jié)果怎么也運行不起來。 創(chuàng)建安裝的目錄,我是安裝在/opt/software下,可以自己選擇 web地址 :http://localhost:8081/ 查看

    2024年02月07日
    瀏覽(47)
  • 在JDK17嘗鮮Flink1.17

    在JDK17嘗鮮Flink1.17

    在JDK17嘗鮮Flink1.17 還沒玩明白老版本,F(xiàn)link1.17就來了!??!總還是要向前看的。。。 根據(jù)官網(wǎng)文檔:https://nightlies.apache.org/flink/flink-docs-release-1.17/docs/try-flink/local_installation/ Flink runs on all UNIX-like environments, i.e. Linux, Mac OS X, and Cygwin (for Windows). You need to have Java 11 installed 所以JD

    2024年02月12日
    瀏覽(24)
  • Flink1.17.1消費kafka3.5中的數(shù)據(jù)出現(xiàn)問題Failed to get metadata for topics [flink].

    問題呈現(xiàn) Failed to get metadata for topics [flink]. at org.apache.flink.connector.kafka.source.enumerator.subscriber.KafkaSubscriberUtils.getTopicMetadata(KafkaSubscriberUtils.java:47) at org.apache.flink.connector.kafka.source.enumerator.subscriber.TopicListSubscriber.getSubscribedTopicPartitions(TopicListSubscriber.java:52) at org.apache.flink.connecto

    2024年02月11日
    瀏覽(24)
  • Flink1.17 基礎(chǔ)知識

    Flink1.17 基礎(chǔ)知識

    來源:B站尚硅谷 Flink 概述 Flink 是什么 Flink的核心目標(biāo)是“ 數(shù)據(jù)流上的有狀態(tài)計算 ” (Stateful Computations over Data Streams)。 具體來說:Apache Flink是一個 框架式和分布式處理引擎 ,用于對無界和有界數(shù)據(jù)流進(jìn)行有 狀態(tài)計算 。 Flink特點 處理數(shù)據(jù)的目標(biāo)是: 低延遲、高吞吐、結(jié)

    2024年01月25日
    瀏覽(23)
  • Flink1.17最新版本學(xué)習(xí)記錄

    Flink1.17最新版本學(xué)習(xí)記錄

    1)Apache Flink 是一個框架和分布式處理引擎,用于在 無邊界和有邊界 數(shù)據(jù)流上進(jìn)行有狀態(tài)的計算。 2)Flink 能在所有常見集群環(huán)境中運行,并能以內(nèi)存速度和任意規(guī)模進(jìn)行計算。 1)批流一體 任何類型的數(shù)據(jù)都可以形成一種事件流。信用卡交易、傳感器測量、機器日志、網(wǎng)站

    2024年02月08日
    瀏覽(19)
  • flink1.17 eventWindow不要配置processTrigger

    flink1.17 eventWindow不要配置processTrigger

    理論上可以eventtime processtime混用,但是下面代碼測試發(fā)現(xiàn)bug,輸入一條數(shù)據(jù)會一直輸出. flink github無法提bug/問題. apache jira賬戶新建后竟然flink又需要一個賬戶,放棄 idea運行代碼后 往source kafka發(fā)送一條數(shù)據(jù)?? 可以看到無限輸出: 理論上時間語義不建議混用,但是在rich函數(shù)中的確可

    2024年02月14日
    瀏覽(24)
  • flink1.17 自定義trigger ContinuousEventTimeTrigger

    在?ContinuousEventTimeTrigger 的基礎(chǔ)上新增了timeout,如果超時后窗口都沒關(guān)閉,那么就硬輸出一波,避免間斷數(shù)據(jù),留存窗口太久. ContinuousEventTimeTrigger連續(xù)事件時間觸發(fā)器與ContinuousProcessingTimeTrigger連續(xù)處理時間觸發(fā)器,指定一個固定時間間隔interval,不需要等到窗口結(jié)束才能獲取結(jié)果

    2024年02月14日
    瀏覽(41)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包