国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Flink1.17版本安裝部署

這篇具有很好參考價(jià)值的文章主要介紹了Flink1.17版本安裝部署。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

前言

提示:這里可以添加本文要記錄的大概內(nèi)容:
隨著實(shí)時(shí)計(jì)算需求場(chǎng)景的增加,對(duì)計(jì)算引擎的實(shí)時(shí)計(jì)算要求也越來(lái)越高,而在實(shí)時(shí)計(jì)算方面表現(xiàn)優(yōu)秀的當(dāng)屬flink,計(jì)算引擎從第一代mapreduce到第二代的Tez,再到第三代計(jì)算引擎spark、第四代計(jì)算引擎則是后來(lái)者flink,雖然spark也支持實(shí)時(shí)計(jì)算,但底層的原理實(shí)際上還是微批處理,會(huì)有一個(gè)攢批的過(guò)程,因此在延遲性方面會(huì)稍遜于flink,F(xiàn)link的設(shè)計(jì)思想在于流式處理,把數(shù)據(jù)看做是一種流,批數(shù)據(jù)則是一種特殊的流,所以flink是支持流批一體處理的,延遲性方面能做到比spark還低,最低可達(dá)到毫秒級(jí),本篇內(nèi)容將圍繞具體的環(huán)境安裝部署展開(kāi)。


提示:下面案例僅供參考

一、flink簡(jiǎn)介

flink同spark一樣也是一種計(jì)算引擎,只不過(guò)在流式處理、實(shí)時(shí)計(jì)算方面比spark更為優(yōu)秀,從flink發(fā)布至今已經(jīng)更新到1.18版本,功能也在逐步的迭代完善中,最先開(kāi)始接觸的是flink cdc,由于項(xiàng)目中有實(shí)時(shí)展示數(shù)據(jù)的需求,當(dāng)時(shí)在調(diào)研了幾種cdc方案后,最后決定嘗試flink cdc,就使用體驗(yàn)來(lái)說(shuō),flink對(duì)sql的集成優(yōu)化真的很完善,對(duì)于不熟悉API接口開(kāi)發(fā)的人員,也能快速上手,關(guān)于flink的介紹這里就不再贅述了,后續(xù)會(huì)用案例來(lái)體驗(yàn)它的功能強(qiáng)大之處。

二、安裝部署

1.下載安裝包

登錄flink官網(wǎng)地址https://flink.apache.org/downloads/,選擇flink版本下載安裝包,由于目前集成的依賴包中,支持最新版本的flink是1.17,所以我這邊選擇安裝的版本為1.17版本,以避免一些不必要的問(wèn)題,執(zhí)行以下命令解壓安裝包

tar -zxvf flink-1.17.2-bin-scala_2.12.tgz

提示:由于名稱太長(zhǎng),建議名稱方便后續(xù)路徑配置
mv flink-1.17.2-bin-scala_2.12 flink-1.17

2.配置環(huán)境變量

vim /etc/profile.d/my_env.sh打開(kāi)并編輯環(huán)境變量配置文件,輸入以下內(nèi)容:

export HADOOP_CLASSPATH=`hadoop classpath`
export FLINK_HOME=/application/soft/flink-1.17
export PATH=$PATH:$$FLINK_HOME/bin

文件保存后,執(zhí)行source /etc/profile使環(huán)境變量生效

3.會(huì)話模式部署

在確保hadoop集群?jiǎn)?dòng)的情況下,進(jìn)入flink安裝路徑下,執(zhí)行以下命令以啟動(dòng)會(huì)話模式
提示:-d是分離模式運(yùn)行,不會(huì)占用控制臺(tái),-nm是指定名稱的意思

bin/yarn-session.sh -d -nm test

4.單作業(yè)模式部署

單作業(yè)模式跟會(huì)話模式的不同之處在于,在運(yùn)行程序時(shí)向yarn申請(qǐng)資源,程序執(zhí)行結(jié)束后,資源回收,而會(huì)話模式會(huì)一次性向yarn申請(qǐng)資源,并生成一個(gè)常駐線程,兩者各有優(yōu)點(diǎn),可根據(jù)項(xiàng)目不同需求進(jìn)行選擇,執(zhí)行以下命令啟動(dòng)單作業(yè)模式
提示:-c后面是運(yùn)行的主類,*.jar是編寫的程序jar包,可根據(jù)不同項(xiàng)目自行修改

bin/flink run -d -t yarn-per-job -c org.example.wordcount Flink-WordCount.jar

5.應(yīng)用模式部署

與單作業(yè)模式類型,也是在執(zhí)行程序是向yarn申請(qǐng)資源,只不過(guò)命令有些區(qū)別,從flink1.1版本后推出,也是目前比較推薦的方式,執(zhí)行以下命令啟動(dòng)應(yīng)用模式部署
提示:-c后面是運(yùn)行的主類,*.jar是編寫的程序jar包,可根據(jù)不同項(xiàng)目自行修改

bin/flink run-application -t yarn-application -c org.example.wordcount Flink-WordCount.jar

此處也可以任務(wù)上傳hdfs提交,先在hdfs上分別創(chuàng)建一個(gè)hdfs目錄用于存放flink依賴包和flink運(yùn)行程序

hadoop fs -mkdir /flink-lib
hadoop fs -put $FLINK_HOME/lib /flink_lib
hadoop fs -put $FLINK_HOME/plugins /flink_lib
hadoop fs -mkdir /flink-jar

然后執(zhí)行以下命令運(yùn)行flink任務(wù)
提示:-c后面是運(yùn)行的主類,*.jar是編寫的程序jar包,可根據(jù)不同項(xiàng)目自行修改

bin/flink run-application -t yarn-application -Dyarn.provided.lib.dirs="hdfs://cdp1:8020/flink-lib" -c org.example.wordcount hdfs://cdp1:8020/flink-jar/Flink-WordCount.jar

總結(jié)

至此,flink集群就已經(jīng)安裝部署完成,由于時(shí)間關(guān)系,關(guān)于flink的一些具體功能就不再具體展開(kāi),本篇內(nèi)容旨在搭建一個(gè)flink環(huán)境為后續(xù)編寫flink程序并驗(yàn)證一些功能,隨著flink生態(tài)的不斷完善,越來(lái)越多的開(kāi)發(fā)者了解到flink的強(qiáng)大,flink1.17對(duì)批處理也做了加強(qiáng),在流批一體大一統(tǒng)的方向上又邁出了一大步,另外隨著paimon的推出,flink也在數(shù)據(jù)存儲(chǔ)方面也補(bǔ)齊了自己的缺點(diǎn),避免了一些組件如hudi、iceberg對(duì)flink功能適配的缺失。好了,今天就聊到這里,文章寫的比較倉(cāng)促,難免有疏漏的地方,后續(xù)會(huì)持續(xù)更新修正!文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-782562.html

到了這里,關(guān)于Flink1.17版本安裝部署的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • CentOS7安裝Flink1.17偽分布式

    CentOS7安裝Flink1.17偽分布式

    擁有1臺(tái)CentOS7 CentOS7安裝好jdk,官方文檔要求java 11,使用java 8也可以??蓞⒖?CentOS7安裝jdk8 下載安裝包 ? 創(chuàng)建軟鏈接 添加如下環(huán)境變量 讓環(huán)境變量立即生效 進(jìn)入flink配置目錄,查看flink的配置文件 配置flink-conf.yaml 找到如下配置項(xiàng),并按照如下修改,其中node1為機(jī)器主機(jī)名

    2024年04月14日
    瀏覽(26)
  • 在JDK17嘗鮮Flink1.17

    在JDK17嘗鮮Flink1.17

    在JDK17嘗鮮Flink1.17 還沒(méi)玩明白老版本,F(xiàn)link1.17就來(lái)了?。。】傔€是要向前看的。。。 根據(jù)官網(wǎng)文檔:https://nightlies.apache.org/flink/flink-docs-release-1.17/docs/try-flink/local_installation/ Flink runs on all UNIX-like environments, i.e. Linux, Mac OS X, and Cygwin (for Windows). You need to have Java 11 installed 所以JD

    2024年02月12日
    瀏覽(24)
  • Flink1.18.1在CentOS7下的安裝和部署

    本文是Flink1.18.1在CenOS7下的安裝和部署的學(xué)習(xí)筆記,記錄了基本的安裝步驟及參數(shù)配置,給初學(xué)者避坑用。 一,安裝JDK11 Flink在1.13及其之前的版本,推薦用JDK8。從Flink 1.14開(kāi)始,官方推薦使用的Java版本是JDK 11,并且從Flink 1.17開(kāi)始,部分依賴于Flink的第三方庫(kù)已經(jīng)棄用了對(duì)JDK

    2024年04月16日
    瀏覽(27)
  • Flink1.17 基礎(chǔ)知識(shí)

    Flink1.17 基礎(chǔ)知識(shí)

    來(lái)源:B站尚硅谷 Flink 概述 Flink 是什么 Flink的核心目標(biāo)是“ 數(shù)據(jù)流上的有狀態(tài)計(jì)算 ” (Stateful Computations over Data Streams)。 具體來(lái)說(shuō):Apache Flink是一個(gè) 框架式和分布式處理引擎 ,用于對(duì)無(wú)界和有界數(shù)據(jù)流進(jìn)行有 狀態(tài)計(jì)算 。 Flink特點(diǎn) 處理數(shù)據(jù)的目標(biāo)是: 低延遲、高吞吐、結(jié)

    2024年01月25日
    瀏覽(24)
  • Flink1.17.0數(shù)據(jù)流

    Flink1.17.0數(shù)據(jù)流

    官網(wǎng)介紹 Apache Flink 是一個(gè)框架和分布式處理引擎,用于對(duì)無(wú)界和有界數(shù)據(jù)流進(jìn)行有狀態(tài)計(jì)算。Flink 被設(shè)計(jì)為在所有常見(jiàn)的集群環(huán)境中運(yùn)行,以內(nèi)存中的速度和任何規(guī)模執(zhí)行計(jì)算。 1.無(wú)限流有一個(gè)開(kāi)始,但沒(méi)有定義的結(jié)束。它們不會(huì)在生成數(shù)據(jù)時(shí)終止并提供數(shù)據(jù)。必須連續(xù)處

    2024年02月11日
    瀏覽(26)
  • 1、Flink1.12.7或1.13.5詳細(xì)介紹及本地安裝部署、驗(yàn)證

    1、Flink1.12.7或1.13.5詳細(xì)介紹及本地安裝部署、驗(yàn)證

    一、Flink 專欄 Flink 專欄系統(tǒng)介紹某一知識(shí)點(diǎn),并輔以具體的示例進(jìn)行說(shuō)明。 1、Flink 部署系列 本部分介紹Flink的部署、配置相關(guān)基礎(chǔ)內(nèi)容。 2、Flink基礎(chǔ)系列 本部分介紹Flink 的基礎(chǔ)部分,比如術(shù)語(yǔ)、架構(gòu)、編程模型、編程指南、基本的datastream api用法、四大基石等內(nèi)容。 3、

    2024年02月05日
    瀏覽(23)
  • flink1.17 自定義trigger ContinuousEventTimeTrigger

    在?ContinuousEventTimeTrigger 的基礎(chǔ)上新增了timeout,如果超時(shí)后窗口都沒(méi)關(guān)閉,那么就硬輸出一波,避免間斷數(shù)據(jù),留存窗口太久. ContinuousEventTimeTrigger連續(xù)事件時(shí)間觸發(fā)器與ContinuousProcessingTimeTrigger連續(xù)處理時(shí)間觸發(fā)器,指定一個(gè)固定時(shí)間間隔interval,不需要等到窗口結(jié)束才能獲取結(jié)果

    2024年02月14日
    瀏覽(41)
  • flink1.17.0 集成kafka,并且計(jì)算

    flink1.17.0 集成kafka,并且計(jì)算

    flink是實(shí)時(shí)計(jì)算的重要集成組件,這里演示如何集成,并且使用一個(gè)小例子。例子是kafka輸入消息,用逗號(hào)隔開(kāi),統(tǒng)計(jì)每個(gè)相同單詞出現(xiàn)的次數(shù),這么一個(gè)功能。 這里我使用的kafka版本是3.2.0,部署的方法可以參考, kafka部署 啟動(dòng)后查看java進(jìn)程是否存在,存在后執(zhí)行下一步。

    2024年02月09日
    瀏覽(18)
  • flink1.17 eventWindow不要配置processTrigger

    flink1.17 eventWindow不要配置processTrigger

    理論上可以eventtime processtime混用,但是下面代碼測(cè)試發(fā)現(xiàn)bug,輸入一條數(shù)據(jù)會(huì)一直輸出. flink github無(wú)法提bug/問(wèn)題. apache jira賬戶新建后竟然flink又需要一個(gè)賬戶,放棄 idea運(yùn)行代碼后 往source kafka發(fā)送一條數(shù)據(jù)?? 可以看到無(wú)限輸出: 理論上時(shí)間語(yǔ)義不建議混用,但是在rich函數(shù)中的確可

    2024年02月14日
    瀏覽(25)
  • Python 編寫 Flink 應(yīng)用程序經(jīng)驗(yàn)記錄(Flink1.17.1)

    Python 編寫 Flink 應(yīng)用程序經(jīng)驗(yàn)記錄(Flink1.17.1)

    目錄 官方API文檔 提交作業(yè)到集群運(yùn)行 官方示例 環(huán)境 編寫一個(gè) Flink Python Table API 程序 執(zhí)行一個(gè) Flink Python Table API 程序 實(shí)例處理Kafka后入庫(kù)到Mysql 下載依賴 flink-kafka jar 讀取kafka數(shù)據(jù) 寫入mysql數(shù)據(jù) flink-mysql jar https://nightlies.apache.org/flink/flink-docs-release-1.17/zh/docs/dev/python/overview/

    2024年02月08日
    瀏覽(22)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包