国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

CDH整合Flink(CDH6.3.0+Flink1.12.1)

這篇具有很好參考價(jià)值的文章主要介紹了CDH整合Flink(CDH6.3.0+Flink1.12.1)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

CDH整合Flink(CDH6.3.0+Flink1.12.1)

1 準(zhǔn)備環(huán)境

Linux版本:CENTOS 7.7.1908 在自己的虛擬機(jī)上提前準(zhǔn)備好,版本建議高點(diǎn)
JAVA版本: jdk1.8.0_181-cloudera 使用CDH帶的JDK1.181版本即可,解壓,配置環(huán)境變量
?
export JAVA_HOME=/usr/java/jdk1.8.0_181-cloudera
export PATH=$PATH:$JAVA_HOME/bin
?
MAVEN版本:apache-maven-3.6.3 解壓,配置環(huán)境變量,配置國(guó)內(nèi)源
tar -zxvf apache-maven-3.6.3-bin.tar.gz -C .
?
export MVN_HOME=/home/data/apache-maven-3.6.3
export PATH=$PATH:$JAVA_HOME/bin:$MVN_HOME/bin
?
配置鏡像
 ?  <!-- 阿里云倉(cāng)庫(kù) -->
 ?  <mirror>
 ? ?  <id>alimaven</id>
 ? ?  <name>aliyun maven</name>
 ? ?  <url>http://maven.aliyun.com/nexus/content/repositories/central/</url>
 ? ?  <mirrorOf>central</mirrorOf>
 ?  </mirror>
 ?  <mirror>
 ? ?  <id>nexus-aliyun</id>
 ? ?  <name>aliyun maven</name>
 ? ?  <url>http://maven.aliyun.com/nexus/content/groups/public/</url>
 ? ?  <mirrorOf>central</mirrorOf>
 ?  </mirror>
 ?  <!-- Maven中央倉(cāng)庫(kù)中國(guó)鏡像 -->
 ?  <mirror>
 ? ?  <id>maven cn repo</id>
 ? ?  <name>oneof the central mirrors in china</name>
 ? ?  <url>http://maven.net.cn/content/groups/public/</url>
 ? ?  <mirrorOf>central</mirrorOf>
 ?  </mirror>
 ?  <mirror>
 ? ?  <id>maven repo</id>
 ? ?  <name>Maven Repository Switchboard</name>
 ? ?  <url>http://repo1.maven.org/maven2/</url>
 ? ?  <mirrorOf>central</mirrorOf>
 ?  </mirror>
 ?  <mirror>
 ? ?  <id>maven repo2</id>
 ? ?  <mirrorOf>central</mirrorOf>
 ? ?  <name>Human Readable Name for this Mirror.</name>
 ? ?  <url>http://repo2.maven.org/maven2/</url>
 ?  </mirror>
?
git版本:1.8.3.1-23.el7_8
yum install -y wget git

2 FLINK相關(guān)準(zhǔn)備

下載

flink下載地址:https://archive.apache.org/dist/flink/flink-1.12.1/flink-1.12.1-bin-scala_2.12.tgz
parcel制作工具下載地址:https://github.com/pkeropen/flink-parcel.git(github提供的工具包)
使用:git clone https://github.com/pkeropen/flink-parcel.git 下載

準(zhǔn)備FLINK1.12.1包

在`/var/www/html`目錄下創(chuàng)建flinktar1.12目錄,將`flink-1.12.1-bin-scala_2.12.tgz`置于該目錄下
通過(guò) http://cdhnode01/flinktar1.12 可以查看到

準(zhǔn)備paecel環(huán)境

修改配置文件

vim flink-parcel.properties
?
#FLINK 下載地址
#FLINK_URL=https://mirrors.tuna.tsinghua.edu.cn/apache/flink/flink-1.9.1/flink-1.9.1-bin-scala_2.12.tgz
FLINK_URL=http://cdhnode01/flinktar1.12/flink-1.12.1-bin-scala_2.12.tgz
?
#flink版本號(hào)
#FLINK_VERSION=1.9.1
FLINK_VERSION=1.12.1
?
#擴(kuò)展版本號(hào)
#EXTENS_VERSION=BIN-SCALA_2.12
EXTENS_VERSION=BIN-SCALA_2.12
?
#操作系統(tǒng)版本,以centos為例
#OS_VERSION=7
OS_VERSION=7
?
#CDH 小版本
#CDH_MIN_FULL=5.2
CDH_MIN_FULL=5.2
#CDH_MAX_FULL=5.15
CDH_MAX_FULL=6.3.3
?
#CDH大版本
#CDH_MIN=5
CDH_MIN=5
#CDH_MAX=5
CDH_MAX=6

3 編譯

執(zhí)行 bash build.sh parcel
?
報(bào)錯(cuò)如下:
?
git clone https://github.com/cloudera/cm_ext.git
Cloning into 'cm_ext'...
fatal: unable to access 'https://github.com/cloudera/cm_ext.git/': Failed connect to github.com:443; Connection timed out
?
修改如下:
?
git clone https://github.com/cloudera/cm_ext.git  改為 git clone git://github.com/cloudera/cm_ext.git
?
再次執(zhí)行

執(zhí)行這部分操作需要稍等一會(huì),打包結(jié)束后執(zhí)行另外一個(gè)操作

bash build.sh csd_on_yarn
?
執(zhí)行完成后會(huì)生成FLINK_ON_YARN-1.12.1.jar

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

生成這倆包為:FLINK-1.12.1-BIN-SCALA_2.12.tar FLINK_ON_YARN-1.12.1.jar

4 編譯flink-shaded

由于Flink1.12版本編譯后確實(shí)沒(méi)有flink-shaded-hadoop-2-uber 3.0.0-cdh6.3.0-10.0文件,但是flink-shaded-10.0也適配flink1.12環(huán)境,于是改用官網(wǎng)提供的flink-shaded-10.0-src.tgz進(jìn)行編譯,編譯步驟類似。

flink-shaded-10.0目錄下進(jìn)行編譯,首先修改pom.xml文件

<profile>
 ?  <id>vendor-repos</id>
 ?  <activation>
 ? ? ?  <property>
 ? ? ? ? ?  <name>vendor-repos</name>
 ? ? ?  </property>
 ?  </activation>
 ?  <!-- Add vendor maven repositories -->
 ?  <repositories>
 ? ? ?  <!-- Cloudera -->
 ? ? ?  <repository>
 ? ? ? ? ?  <id>cloudera-releases</id>
 ? ? ? ? ?  <url>https://repository.cloudera.com/artifactory/cloudera-repos</url>
 ? ? ? ? ?  <releases>
 ? ? ? ? ? ? ?  <enabled>true</enabled>
 ? ? ? ? ?  </releases>
 ? ? ? ? ?  <snapshots>
 ? ? ? ? ? ? ?  <enabled>false</enabled>
 ? ? ? ? ?  </snapshots>
 ? ? ?  </repository>
 ? ? ?  <!-- Hortonworks -->
 ? ? ?  <repository>
 ? ? ? ? ?  <id>HDPReleases</id>
 ? ? ? ? ?  <name>HDP Releases</name>
 ? ? ? ? ?  <url>https://repo.hortonworks.com/content/repositories/releases/</url>
 ? ? ? ? ?  <snapshots><enabled>false</enabled></snapshots>
 ? ? ? ? ?  <releases><enabled>true</enabled></releases>
 ? ? ?  </repository>
 ? ? ?  <repository>
 ? ? ? ? ?  <id>HortonworksJettyHadoop</id>
 ? ? ? ? ?  <name>HDP Jetty</name>
 ? ? ? ? ?  <url>https://repo.hortonworks.com/content/repositories/jetty-hadoop</url>
 ? ? ? ? ?  <snapshots><enabled>false</enabled></snapshots>
 ? ? ? ? ?  <releases><enabled>true</enabled></releases>
 ? ? ?  </repository>
 ? ? ?  <!-- MapR -->
 ? ? ?  <repository>
 ? ? ? ? ?  <id>mapr-releases</id>
 ? ? ? ? ?  <url>https://repository.mapr.com/maven/</url>
 ? ? ? ? ?  <snapshots><enabled>false</enabled></snapshots>
 ? ? ? ? ?  <releases><enabled>true</enabled></releases>
 ? ? ?  </repository>
 ?  </repositories>
</profile>

執(zhí)行:mvn clean install -DskipTests -Pvendor-repos -Dhadoop.version=3.0.0-cdh6.3.0 -Dscala-2.12 -Drat.skip=true -T10C

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

編譯成功后已經(jīng)有目標(biāo)文件,目標(biāo)文件位置

/home/data/flink-shaded-10.0/flink-shaded-hadoop-2-parent/flink-shaded-hadoop-2-uber/target

5 集成CDH

將編譯好的flink-1.12.1-bin-scala_2.12.tar解壓到/var/www/html并重命名為flink1.12

將FLINK_ON_YARN-1.12.1.jar放到CM所在的/opt/cloudera/csd/目錄下

重啟CM

systemctl stop cloudera-scm-server

systemctl start cloudera-scm-server

會(huì)發(fā)現(xiàn)添加服務(wù)中多了FLINK_ONYARN的服務(wù)

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

配置pacel,將FLINK1.12.1的服務(wù)添加進(jìn)去

CM頁(yè)面—>主機(jī)—> parcel —> 配置,添加上傳的parcel的位置

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

檢查新Parcel ,然后下載—>分配—>激活

這時(shí)候會(huì)出現(xiàn)一個(gè)問(wèn)題

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

此時(shí)我們需要多做一步

先對(duì)比文件hash值是否一致,如果不一致就修改一致

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

查看發(fā)現(xiàn)hash碼一致,下載仍然報(bào)錯(cuò),需要修改httpd配置文件 文件在/etc/httpd/conf/httpd.conf

重啟httpd服務(wù) systemctl restart httpd

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

再次進(jìn)行上次操作,發(fā)現(xiàn)已經(jīng)激活成功了。

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

6 啟動(dòng)FLINK服務(wù)

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

啟動(dòng)發(fā)現(xiàn)第一個(gè)報(bào)錯(cuò)

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

去看這個(gè)目錄下的日志得到 /var/log/flink下找日志,第一步將有認(rèn)證的去掉,還是報(bào)錯(cuò),發(fā)現(xiàn)錯(cuò)誤如下:

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

在這塊配置過(guò)了HADOOP_CLASSPATH=hadoop classpath 但是問(wèn)題沒(méi)有解決。需要將我們打的1.10的包放到/opt/cloudera/parcels/FLINK-1.12.1-BIN-SCALA_2.12/lib/flink/lib,再次啟動(dòng)。

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

按照下面這個(gè)圖片去解決問(wèn)題

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

su - hdfs -s /bin/bash

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

在這一塊進(jìn)行權(quán)限的賦予,以前的CDH部署過(guò)FLINK1.9是會(huì)有影響的。集群?jiǎn)?dòng)成功

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

但是一會(huì)又掛了,接著查找日志

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

發(fā)現(xiàn)以前裝的FLINK1.9確實(shí)有有影響,把/user/flink刪除重新按照上面的圖片創(chuàng)建,再次重啟即可。

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

CDH整合Flink(CDH6.3.0+Flink1.12.1),Flink,flink,大數(shù)據(jù)

可以看到y(tǒng)arn上有FLINK啟動(dòng)起來(lái),整體搭建基本完成。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-817576.html

到了這里,關(guān)于CDH整合Flink(CDH6.3.0+Flink1.12.1)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 1、Flink1.12.7或1.13.5詳細(xì)介紹及本地安裝部署、驗(yàn)證

    1、Flink1.12.7或1.13.5詳細(xì)介紹及本地安裝部署、驗(yàn)證

    一、Flink 專欄 Flink 專欄系統(tǒng)介紹某一知識(shí)點(diǎn),并輔以具體的示例進(jìn)行說(shuō)明。 1、Flink 部署系列 本部分介紹Flink的部署、配置相關(guān)基礎(chǔ)內(nèi)容。 2、Flink基礎(chǔ)系列 本部分介紹Flink 的基礎(chǔ)部分,比如術(shù)語(yǔ)、架構(gòu)、編程模型、編程指南、基本的datastream api用法、四大基石等內(nèi)容。 3、

    2024年02月05日
    瀏覽(23)
  • 尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記01【Flink概述、Flink快速上手】

    尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記01【Flink概述、Flink快速上手】

    尚硅谷大數(shù)據(jù)技術(shù)-教程-學(xué)習(xí)路線-筆記匯總表【課程資料下載】 視頻地址:尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程從入門(mén)到精通_嗶哩嗶哩_bilibili 尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記01【Flink概述、Flink快速上手】 尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記02【Flink部署】 尚硅谷大數(shù)據(jù)Flink1.17實(shí)

    2024年02月09日
    瀏覽(51)
  • 尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記02【Flink部署】

    尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記02【Flink部署】

    尚硅谷大數(shù)據(jù)技術(shù)-教程-學(xué)習(xí)路線-筆記匯總表【課程資料下載】 視頻地址:尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程從入門(mén)到精通_嗶哩嗶哩_bilibili 尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記01【Flink概述、Flink快速上手】 尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記02【Flink部署】 尚硅谷大數(shù)據(jù)Flink1.17實(shí)

    2024年02月11日
    瀏覽(31)
  • Flink1.17.0數(shù)據(jù)流

    Flink1.17.0數(shù)據(jù)流

    官網(wǎng)介紹 Apache Flink 是一個(gè)框架和分布式處理引擎,用于對(duì)無(wú)界和有界數(shù)據(jù)流進(jìn)行有狀態(tài)計(jì)算。Flink 被設(shè)計(jì)為在所有常見(jiàn)的集群環(huán)境中運(yùn)行,以內(nèi)存中的速度和任何規(guī)模執(zhí)行計(jì)算。 1.無(wú)限流有一個(gè)開(kāi)始,但沒(méi)有定義的結(jié)束。它們不會(huì)在生成數(shù)據(jù)時(shí)終止并提供數(shù)據(jù)。必須連續(xù)處

    2024年02月11日
    瀏覽(27)
  • 尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記03【Flink運(yùn)行時(shí)架構(gòu)】

    尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記03【Flink運(yùn)行時(shí)架構(gòu)】

    尚硅谷大數(shù)據(jù)技術(shù)-教程-學(xué)習(xí)路線-筆記匯總表【課程資料下載】 視頻地址:尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程從入門(mén)到精通_嗶哩嗶哩_bilibili 尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記01【Flink概述、Flink快速上手】 尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記02【Flink部署】 尚硅谷大數(shù)據(jù)Flink1.17實(shí)

    2024年02月16日
    瀏覽(44)
  • 尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記02【部署】

    尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記02【部署】

    尚硅谷大數(shù)據(jù)技術(shù)-教程-學(xué)習(xí)路線-筆記匯總表【課程資料下載】 視頻地址:尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程從入門(mén)到精通_嗶哩嗶哩_bilibili 尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記01【Flink概述、Flink快速上手】 尚硅谷大數(shù)據(jù)Flink1.17實(shí)戰(zhàn)教程-筆記02【Flink部署】 尚硅谷大數(shù)據(jù)Flink1.17實(shí)

    2024年02月09日
    瀏覽(19)
  • CDH6.3.2,不互通的cdh平臺(tái)互導(dǎo)hive數(shù)據(jù)

    1、先導(dǎo)出所有建表語(yǔ)句,在源CDH服務(wù)器命令行輸入下面命令,該庫(kù)下所有建表語(yǔ)句保存至hive目錄中的tables.sql文件中,不知道具體路徑可以全局搜索一下,拿到源庫(kù)hive的建表語(yǔ)句后,稍微處理一下,去目標(biāo)庫(kù)把表建好。 附加:我自己需要導(dǎo)很多個(gè)庫(kù),所以寫(xiě)了一行python代碼

    2024年01月19日
    瀏覽(27)
  • Flink1.17.1消費(fèi)kafka3.5中的數(shù)據(jù)出現(xiàn)問(wèn)題Failed to get metadata for topics [flink].

    問(wèn)題呈現(xiàn) Failed to get metadata for topics [flink]. at org.apache.flink.connector.kafka.source.enumerator.subscriber.KafkaSubscriberUtils.getTopicMetadata(KafkaSubscriberUtils.java:47) at org.apache.flink.connector.kafka.source.enumerator.subscriber.TopicListSubscriber.getSubscribedTopicPartitions(TopicListSubscriber.java:52) at org.apache.flink.connecto

    2024年02月11日
    瀏覽(24)
  • flink1.18.0 flink維表join新思路

    弊端: ? ? ? ? 雖然緩存可以減輕維表負(fù)擔(dān),但是如果事實(shí)表數(shù)據(jù)量很大,每秒千萬(wàn)條,維度表只有百萬(wàn)條,也就是說(shuō) 你會(huì)看到大量的無(wú)法關(guān)聯(lián)的數(shù)據(jù)仍然需要查詢維度表.? cache緩存千萬(wàn)數(shù)據(jù)量?jī)?nèi)存壓力又比較大, 那么怎么減輕維表數(shù)據(jù)庫(kù)壓力,還能做到低延遲. 以往雙流join ; a joi

    2024年01月24日
    瀏覽(31)
  • flink1.17安裝

    官網(wǎng)地址: https://nightlies.apache.org/flink/flink-docs-release-1.17/zh//docs/try-flink/local_installation/ ps:只能安裝openjdk11,昨天安裝的oracle jdk17,結(jié)果怎么也運(yùn)行不起來(lái)。 創(chuàng)建安裝的目錄,我是安裝在/opt/software下,可以自己選擇 web地址 :http://localhost:8081/ 查看

    2024年02月07日
    瀏覽(48)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包