目錄
1.xftp上傳flink壓縮包至hadoop102的/opt/software/目錄下
2.解壓flink壓縮包至/opt/module/目錄下
3. 配置flink-conf.yaml
4.配置masters
5.配置workers
6.配置環(huán)境變量my_env.sh
7.重啟環(huán)境變量
8.分發(fā)/opt/module/flink-1.13.0和/etc/profile.d/my_env.sh
9.另外兩臺(tái)重啟環(huán)境變量
10.開(kāi)啟hadoop集群和flink集群
11.瀏覽器輸入網(wǎng)址查驗(yàn)flink集群是否開(kāi)啟
12. 關(guān)閉flink集群命令
Hadoop集群搭建請(qǐng)參考博文《Hadoop集群搭建詳細(xì)步驟》
1.xftp上傳flink壓縮包至hadoop102的/opt/software/目錄下
2.解壓flink壓縮包至/opt/module/目錄下
[lxm@hadoop102 software]$ tar -zxvf ./flink-1.13.0-bin-scala_2.12.tgz -C /opt/module/
3. 配置flink-conf.yaml
4.配置masters
5.配置workers
6.配置環(huán)境變量my_env.sh
7.重啟環(huán)境變量
[lxm@hadoop102 software]$ source /etc/profile
8.分發(fā)/opt/module/flink-1.13.0和/etc/profile.d/my_env.sh
[lxm@hadoop102 flink-1.13.0]$ xsync /opt/module/flink-1.13.0/
[lxm@hadoop102 ~]$ sudo ./bin/xsync /etc/profile.d/my_env.sh
9.另外兩臺(tái)重啟環(huán)境變量
重啟環(huán)境變量之前也可以查看是否分發(fā)成功
[lxm@hadoop103 ~]$ source /etc/profile
[lxm@hadoop104 ~]$ source /etc/profile
10.開(kāi)啟hadoop集群和flink集群
[lxm@hadoop102 ~]$ myhadoop.sh start
[lxm@hadoop102 ~]$ start-cluster.sh
[lxm@hadoop102 ~]$ jpsall
?
11.瀏覽器輸入網(wǎng)址查驗(yàn)flink集群是否開(kāi)啟
http://hadoop102:8081文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-488579.html
文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-488579.html
12. 關(guān)閉flink集群命令
[lxm@hadoop102 ~]$ stop-cluster.sh
到了這里,關(guān)于基于Hadoop搭建Flink集群詳細(xì)步驟的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!