国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】

這篇具有很好參考價值的文章主要介紹了尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

  • 尚硅谷大數(shù)據(jù)技術-教程-學習路線-筆記匯總表【課程資料下載】
  • 視頻地址:尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程從入門到精通_嗶哩嗶哩_bilibili
  1. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記01【Flink概述、Flink快速上手】
  2. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記02【Flink部署】
  3. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】
  4. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記04【】
  5. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記05【】
  6. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記06【】
  7. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記07【】
  8. 尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記08【】

目錄

基礎篇

第04章-Flink部署

P023【023_Flink運行時架構_系統(tǒng)架構】07:13

P024【024_Flink運行時架構_核心概念_并行度】06:45

P025【025_Flink運行時架構_核心概念_并行度設置&優(yōu)先級】18:40

P026【026_Flink運行時架構_核心概念_算子鏈】08:34

P027【027_Flink運行時架構_核心概念_算子鏈演示】17:11

P028【028_Flink運行時架構_核心概念_任務槽】09:52

P029【029_Flink運行時架構_核心概念_任務槽的共享組】07:59

P030【030_Flink運行時架構_核心概念_slot與并行度的關系&演示】21:27

P031【031_Flink運行時架構_提交流程_Standalone會話模式&四張圖】09:49

P032【032_Flink運行時架構_提交流程_Yarn應用模式】05:18


基礎篇

第04章-Flink部署

P023【023_Flink運行時架構_系統(tǒng)架構】07:13

Flink運行時架構——Standalone會話模式為例

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

P024【024_Flink運行時架構_核心概念_并行度】06:45

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

  • 一個特定算子的子任務(subtask)的個數(shù)被稱之為其并行度(parallelism)。這樣,包含并行子任務的數(shù)據(jù)流,就是并行數(shù)據(jù)流,它需要多個分區(qū)(stream partition)來分配并行任務。一般情況下,一個流程序的并行度,可以認為就是其所有算子中最大的并行度。一個程序中,不同的算子可能具有不同的并行度。
  • 例如:如上圖所示,當前數(shù)據(jù)流中有source、map、window、sink四個算子,其中sink算子的并行度為1,其他算子的并行度都為2。所以這段流處理程序的并行度就是2。

P025【025_Flink運行時架構_核心概念_并行度設置&優(yōu)先級】18:40

4.2.1 并行度(Parallelism)

2)并行度的設置

在Flink中,可以用不同的方法來設置并行度,它們的有效范圍和優(yōu)先級別也是不同的。

1)代碼中設置

我們在代碼中,可以很簡單地在算子后跟著調(diào)用setParallelism()方法,來設置當前算子的并行度:

stream.map(word -> Tuple2.of(word, 1L)).setParallelism(2);

這種方式設置的并行度,只針對當前算子有效。

另外,我們也可以直接調(diào)用執(zhí)行環(huán)境的setParallelism()方法,全局設定并行度:

env.setParallelism(2);

這樣代碼中所有算子,默認的并行度就都為2了。我們一般不會在程序中設置全局并行度,因為如果在程序中對全局并行度進行硬編碼,會導致無法動態(tài)擴容。

這里要注意的是,由于keyBy不是算子,所以無法對keyBy設置并行度。

2)提交應用時設置

在使用flink run命令提交應用時,可以增加-p參數(shù)來指定當前應用程序執(zhí)行的并行度,它的作用類似于執(zhí)行環(huán)境的全局設置:

bin/flink run p 2 c com.atguigu.wc.SocketStreamWordCount

./FlinkTutorial-1.0-SNAPSHOT.jar

如果我們直接在Web UI上提交作業(yè),也可以在對應輸入框中直接添加并行度。

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

package com.atguigu.wc;

import org.apache.flink.api.common.typeinfo.TypeHint;
import org.apache.flink.api.common.typeinfo.TypeInformation;
import org.apache.flink.api.common.typeinfo.Types;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.util.Collector;

/**
 * TODO DataStream實現(xiàn)Wordcount:讀socket(無界流)
 *
 * @author
 * @version 1.0
 */
public class WordCountStreamUnboundedDemo {
    public static void main(String[] args) throws Exception {
        // TODO 1.創(chuàng)建執(zhí)行環(huán)境
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        // IDEA運行時,也可以看到webui,一般用于本地測試
        // 需要引入一個依賴 flink-runtime-web
        // 在idea運行,不指定并行度,默認就是 電腦的 線程數(shù)
        // StreamExecutionEnvironment env = StreamExecutionEnvironment.createLocalEnvironmentWithWebUI(new Configuration());
        env.setParallelism(3);

        // TODO 2.讀取數(shù)據(jù): socket
        DataStreamSource<String> socketDS = env.socketTextStream("hadoop102", 7777);

        // TODO 3.處理數(shù)據(jù): 切換、轉換、分組、聚合
        SingleOutputStreamOperator<Tuple2<String, Integer>> sum = socketDS
                .flatMap(
                        (String value, Collector<Tuple2<String, Integer>> out) -> {
                            String[] words = value.split(" ");
                            for (String word : words) {
                                out.collect(Tuple2.of(word, 1));
                            }
                        }
                )
                .setParallelism(2)
                .returns(Types.TUPLE(Types.STRING,Types.INT))
                // .returns(new TypeHint<Tuple2<String, Integer>>() {})
                .keyBy(value -> value.f0)
                .sum(1);

        // TODO 4.輸出
        sum.print();

        // TODO 5.執(zhí)行
        env.execute();
    }
}

/**
 并行度的優(yōu)先級:
    代碼:算子 > 代碼:env > 提交時指定 > 配置文件
 */

并行度優(yōu)先級:代碼:算子 > 代碼:全局env > 提交時指定命令 > 配置文件。

P026【026_Flink運行時架構_核心概念_算子鏈】08:34

4.2.2 算子鏈(Operator Chain)

2)合并算子鏈

在Flink中,并行度相同的一對一(one to one)算子操作,可以直接鏈接在一起形成一個“大”的任務(task,這樣原來的算子就成為了真正任務里的一部分,如下圖所示。每個task會被一個線程執(zhí)行。這樣的技術被稱為“算子鏈”(Operator Chain)。

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

P027【027_Flink運行時架構_核心概念_算子鏈演示】17:11

package com.atguigu.wc;

import org.apache.flink.api.common.typeinfo.Types;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.util.Collector;

/**
 * TODO DataStream實現(xiàn)Wordcount:讀socket(無界流)
 *
 * @author
 * @version 1.0
 */
public class OperatorChainDemo {
    public static void main(String[] args) throws Exception {
        // TODO 1.創(chuàng)建執(zhí)行環(huán)境
		// StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        // IDEA運行時,也可以看到webui,一般用于本地測試
        // 需要引入一個依賴 flink-runtime-web
        StreamExecutionEnvironment env = StreamExecutionEnvironment.createLocalEnvironmentWithWebUI(new Configuration());

        // 在idea運行,不指定并行度,默認就是 電腦的 線程數(shù)
        env.setParallelism(1);

        // 全局禁用 算子鏈
		//env.disableOperatorChaining();

        // TODO 2.讀取數(shù)據(jù):socket
        DataStreamSource<String> socketDS = env.socketTextStream("hadoop102", 7777);

        // TODO 3.處理數(shù)據(jù): 切換、轉換、分組、聚合
        SingleOutputStreamOperator<Tuple2<String,Integer>> sum = socketDS
				//.disableChaining()
                .flatMap(
                        (String value, Collector<String> out) -> {
                            String[] words = value.split(" ");
                            for (String word : words) {
                                out.collect(word);
                            }
                        }
                )
                .startNewChain()
				//.disableChaining()
                .returns(Types.STRING)
                .map(word -> Tuple2.of(word, 1))
                .returns(Types.TUPLE(Types.STRING,Types.INT))
                .keyBy(value -> value.f0)
                .sum(1);

        // TODO 4.輸出
        sum.print();

        // TODO 5.執(zhí)行
        env.execute();
    }
}

/**
 1、算子之間的傳輸關系:
     一對一
     重分區(qū)

 2、算子 串在一起的條件:
    1) 一對一
    2) 并行度相同

 3、關于算子鏈的api:
    1)全局禁用算子鏈:env.disableOperatorChaining();
    2)某個算子不參與鏈化:  算子A.disableChaining(),  算子A不會與 前面 和 后面的算子 串在一起
    3)從某個算子開啟新鏈條:  算子A.startNewChain(), 算子A不與 前面串在一起,從A開始正常鏈化
 */

P028【028_Flink運行時架構_核心概念_任務槽】09:52

4.2.3 任務槽(Task Slots)

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

P029【029_Flink運行時架構_核心概念_任務槽的共享組】07:59

3)任務對任務槽的共享

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

默認情況下,F(xiàn)link是允許子任務共享slot的。如果我們保持sink任務并行度為1不變,而作業(yè)提交時設置全局并行度為6,那么前兩個任務節(jié)點就會各自有6個并行子任務,整個流處理程序則有13個子任務。如上圖所示,只要屬于同一個作業(yè),那么對于不同任務節(jié)點(算子)的并行子任務,就可以放到同一個slot上執(zhí)行。所以對于第一個任務節(jié)點source→map,它的6個并行子任務必須分到不同的slot上,而第二個任務節(jié)點keyBy/window/apply的并行子任務卻可以和第一個任務節(jié)點共享slot。

package com.atguigu.wc;

import org.apache.flink.api.common.typeinfo.Types;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.configuration.Configuration;
import org.apache.flink.streaming.api.datastream.DataStreamSource;
import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.util.Collector;

/**
 * TODO DataStream實現(xiàn)Wordcount:讀socket(無界流)
 *
 * @author
 * @version 1.0
 */
public class SlotSharingGroupDemo {
    public static void main(String[] args) throws Exception {
        // TODO 1.創(chuàng)建執(zhí)行環(huán)境
		// StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        // IDEA運行時,也可以看到webui,一般用于本地測試
        // 需要引入一個依賴 flink-runtime-web
        StreamExecutionEnvironment env = StreamExecutionEnvironment.createLocalEnvironmentWithWebUI(new Configuration());

        // 在idea運行,不指定并行度,默認就是 電腦的 線程數(shù)
        env.setParallelism(1);

        // TODO 2.讀取數(shù)據(jù):socket
        DataStreamSource<String> socketDS = env.socketTextStream("hadoop102", 7777);

        // TODO 3.處理數(shù)據(jù): 切換、轉換、分組、聚合
        SingleOutputStreamOperator<Tuple2<String,Integer>> sum = socketDS
                .flatMap(
                        (String value, Collector<String> out) -> {
                            String[] words = value.split(" ");
                            for (String word : words) {
                                out.collect(word);
                            }
                        }
                )
                .returns(Types.STRING)
                .map(word -> Tuple2.of(word, 1)).slotSharingGroup("aaa")
                .returns(Types.TUPLE(Types.STRING,Types.INT))
                .keyBy(value -> value.f0)
                .sum(1);


        // TODO 4.輸出
        sum.print();

        // TODO 5.執(zhí)行
        env.execute();
    }
}

/**
 1、slot特點:
    1)均分隔離內(nèi)存,不隔離cpu
    2)可以共享:
          同一個job中,不同算子的子任務 才可以共享 同一個slot,同時在運行的
          前提是,屬于同一個 slot共享組,默認都是“default”

 2、slot數(shù)量 與 并行度 的關系
    1)slot是一種靜態(tài)的概念,表示最大的并發(fā)上限
       并行度是一種動態(tài)的概念,表示 實際運行 占用了 幾個

    2)要求: slot數(shù)量 >= job并行度(算子最大并行度),job才能運行
       TODO 注意:如果是yarn模式,動態(tài)申請
         --> TODO 申請的TM數(shù)量 = job并行度 / 每個TM的slot數(shù),向上取整
       比如session: 一開始 0個TaskManager,0個slot
         --> 提交一個job,并行度10
            --> 10/3,向上取整,申請4個tm,
            --> 使用10個slot,剩余2個slot
 */

P030【030_Flink運行時架構_核心概念_slot與并行度的關系&演示】21:27

4.2.4 任務槽和并行度的關系

任務槽和并行度都跟程序的并行執(zhí)行有關,但兩者是完全不同的概念。簡單來說任務槽是靜態(tài)的概念,是指TaskManager具有的并發(fā)執(zhí)行能力,可以通過參數(shù)taskmanager.numberOfTaskSlots進行配置;而并行度是動態(tài)概念,也就是TaskManager運行程序時實際使用的并發(fā)能力,可以通過參數(shù)parallelism.default進行配置。

slot數(shù)量 與 并行度 的關系
? ? 1)slot是一種靜態(tài)的概念,表示最大的并發(fā)上限
? ? ? ?并行度是一種動態(tài)的概念,表示 實際運行 占用了 幾個

? ? 2)要求: slot數(shù)量 >= job并行度(算子最大并行度),job才能運行
? ? ? ?TODO 注意:如果是yarn模式,動態(tài)申請
? ? ? ? ?--> TODO 申請的TM數(shù)量 = job并行度 / 每個TM的slot數(shù),向上取整
? ? ? ?比如session: 一開始 0個TaskManager,0個slot
? ? ? ? ?--> 提交一個job,并行度10
? ? ? ? ? ? --> 10/3,向上取整,申請4個tm
? ? ? ? ? ? --> 使用10個slot,剩余2個slot

P031【031_Flink運行時架構_提交流程_Standalone會話模式&四張圖】09:49

4.3 作業(yè)提交流程

4.3.1 Standalone會話模式作業(yè)提交流程

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

4.3.2 邏輯流圖/作業(yè)圖/執(zhí)行圖/物理流圖

邏輯流圖(StreamGraph)→ 作業(yè)圖(JobGraph)→ 執(zhí)行圖(ExecutionGraph)→ 物理圖(Physical Graph)。

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink

P032【032_Flink運行時架構_提交流程_Yarn應用模式】05:18

4.3.3 Yarn應用模式作業(yè)提交流程

尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】,# Flink,大數(shù)據(jù),flink文章來源地址http://www.zghlxwxcb.cn/news/detail-596961.html

到了這里,關于尚硅谷大數(shù)據(jù)Flink1.17實戰(zhàn)教程-筆記03【Flink運行時架構】的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • Flink1.17.0數(shù)據(jù)流

    Flink1.17.0數(shù)據(jù)流

    官網(wǎng)介紹 Apache Flink 是一個框架和分布式處理引擎,用于對無界和有界數(shù)據(jù)流進行有狀態(tài)計算。Flink 被設計為在所有常見的集群環(huán)境中運行,以內(nèi)存中的速度和任何規(guī)模執(zhí)行計算。 1.無限流有一個開始,但沒有定義的結束。它們不會在生成數(shù)據(jù)時終止并提供數(shù)據(jù)。必須連續(xù)處

    2024年02月11日
    瀏覽(26)
  • 尚硅谷大數(shù)據(jù)技術Hadoop教程-筆記03【Hadoop-HDFS】

    尚硅谷大數(shù)據(jù)技術Hadoop教程-筆記03【Hadoop-HDFS】

    視頻地址: 尚硅谷大數(shù)據(jù)Hadoop教程(Hadoop 3.x安裝搭建到集群調(diào)優(yōu)) 尚硅谷大數(shù)據(jù)技術Hadoop教程-筆記01【大數(shù)據(jù)概論】 尚硅谷大數(shù)據(jù)技術Hadoop教程-筆記02【Hadoop-入門】 尚硅谷大數(shù)據(jù)技術Hadoop教程-筆記03【Hadoop-HDFS】 尚硅谷大數(shù)據(jù)技術Hadoop教程-筆記04【Hadoop-MapReduce】 尚硅谷

    2023年04月08日
    瀏覽(25)
  • 尚硅谷大數(shù)據(jù)技術Spark教程-筆記01【Spark(概述、快速上手、運行環(huán)境、運行架構)】

    尚硅谷大數(shù)據(jù)技術Spark教程-筆記01【Spark(概述、快速上手、運行環(huán)境、運行架構)】

    視頻地址: 尚硅谷大數(shù)據(jù)Spark教程從入門到精通_嗶哩嗶哩_bilibili 尚硅谷大數(shù)據(jù)技術Spark教程-筆記01【Spark(概述、快速上手、運行環(huán)境、運行架構)】 尚硅谷大數(shù)據(jù)技術Spark教程-筆記02【SparkCore(核心編程、案例實操)】 尚硅谷大數(shù)據(jù)技術Spark教程-筆記03【SparkSQL(概述、核心編程、

    2023年04月21日
    瀏覽(25)
  • 尚硅谷Docker實戰(zhàn)教程-筆記06【Docker容器數(shù)據(jù)卷】

    尚硅谷Docker實戰(zhàn)教程-筆記06【Docker容器數(shù)據(jù)卷】

    尚硅谷大數(shù)據(jù)技術-教程-學習路線-筆記匯總表【課程資料下載】 視頻地址:尚硅谷Docker實戰(zhàn)教程(docker教程天花板)_嗶哩嗶哩_bilibili 尚硅谷Docker實戰(zhàn)教程-筆記01【理念簡介、官網(wǎng)介紹、平臺入門圖解、平臺架構圖解】 尚硅谷Docker實戰(zhàn)教程-筆記02【安裝docker、鏡像加速器配置

    2024年02月16日
    瀏覽(50)
  • 尚硅谷大數(shù)據(jù)技術Spark教程-筆記01【Spark(概述、快速上手、運行環(huán)境)】

    尚硅谷大數(shù)據(jù)技術Spark教程-筆記01【Spark(概述、快速上手、運行環(huán)境)】

    視頻地址: 尚硅谷大數(shù)據(jù)Spark教程從入門到精通_嗶哩嗶哩_bilibili 尚硅谷大數(shù)據(jù)技術Spark教程-筆記01【Spark(概述、快速上手、運行環(huán)境、運行架構)】 尚硅谷大數(shù)據(jù)技術Spark教程-筆記02【SparkCore(核心編程、案例實操)】 尚硅谷大數(shù)據(jù)技術Spark教程-筆記03【SparkSQL(概述、核心編程、

    2023年04月15日
    瀏覽(25)
  • flink1.17安裝

    官網(wǎng)地址: https://nightlies.apache.org/flink/flink-docs-release-1.17/zh//docs/try-flink/local_installation/ ps:只能安裝openjdk11,昨天安裝的oracle jdk17,結果怎么也運行不起來。 創(chuàng)建安裝的目錄,我是安裝在/opt/software下,可以自己選擇 web地址 :http://localhost:8081/ 查看

    2024年02月07日
    瀏覽(47)
  • 在JDK17嘗鮮Flink1.17

    在JDK17嘗鮮Flink1.17

    在JDK17嘗鮮Flink1.17 還沒玩明白老版本,F(xiàn)link1.17就來了!??!總還是要向前看的。。。 根據(jù)官網(wǎng)文檔:https://nightlies.apache.org/flink/flink-docs-release-1.17/docs/try-flink/local_installation/ Flink runs on all UNIX-like environments, i.e. Linux, Mac OS X, and Cygwin (for Windows). You need to have Java 11 installed 所以JD

    2024年02月12日
    瀏覽(24)
  • Flink1.17.1消費kafka3.5中的數(shù)據(jù)出現(xiàn)問題Failed to get metadata for topics [flink].

    問題呈現(xiàn) Failed to get metadata for topics [flink]. at org.apache.flink.connector.kafka.source.enumerator.subscriber.KafkaSubscriberUtils.getTopicMetadata(KafkaSubscriberUtils.java:47) at org.apache.flink.connector.kafka.source.enumerator.subscriber.TopicListSubscriber.getSubscribedTopicPartitions(TopicListSubscriber.java:52) at org.apache.flink.connecto

    2024年02月11日
    瀏覽(24)
  • Flink1.17 基礎知識

    Flink1.17 基礎知識

    來源:B站尚硅谷 Flink 概述 Flink 是什么 Flink的核心目標是“ 數(shù)據(jù)流上的有狀態(tài)計算 ” (Stateful Computations over Data Streams)。 具體來說:Apache Flink是一個 框架式和分布式處理引擎 ,用于對無界和有界數(shù)據(jù)流進行有 狀態(tài)計算 。 Flink特點 處理數(shù)據(jù)的目標是: 低延遲、高吞吐、結

    2024年01月25日
    瀏覽(23)
  • Flink1.17版本安裝部署

    提示:這里可以添加本文要記錄的大概內(nèi)容: 隨著實時計算需求場景的增加,對計算引擎的實時計算要求也越來越高,而在實時計算方面表現(xiàn)優(yōu)秀的當屬flink,計算引擎從第一代mapreduce到第二代的Tez,再到第三代計算引擎spark、第四代計算引擎則是后來者flink,雖然spark也支持

    2024年02月02日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包