国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

flink+kafka+doris+springboot集成例子

這篇具有很好參考價(jià)值的文章主要介紹了flink+kafka+doris+springboot集成例子。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

目錄

一、例子說明

1.1、概述

1.1、所需環(huán)境

1.2、執(zhí)行流程?

二、部署環(huán)境

2.1、中間件部署

2.1.1部署kakfa

2.1.1.1 上傳解壓kafka安裝包

2.1.1.2?修改zookeeper.properties

2.1.1.3?修改server.properties

2.1.1.3 啟動(dòng)kafka

2.1.2、部署flink

2.1.2.1 上傳解壓flink安裝包

?2.1.2.1 修改flink配置

2.1.2.3?flink單節(jié)點(diǎn)啟動(dòng)與停止命令

2.1.3、部署doris

2.1.3.1 下載安裝包并上傳服務(wù)器

?2.1.3.2?配置doris fe(前端)

?2.1.3.3?啟動(dòng)doris fe(前端)?

?2.1.3.4 配置doris be(后端)??

??2.1.3.5?doris啟動(dòng) be(后端)?

??2.1.3.5?doris啟動(dòng)成功驗(yàn)證

2.1.3.6?doris的be在fe上注冊?

2.1.3.6?通過doris的fe的Web UI頁面創(chuàng)建數(shù)據(jù)庫表

2.1.4、部署spring-boot的syslog-kafka-es-avro

?2.1.4.1、syslog-kafka-es-avro基于netty已UDP方式監(jiān)聽syslog

2.1.4.2、syslog-kafka-es-avro已a(bǔ)vro格式保存數(shù)據(jù)到kafka

2.1.5、部署spring-boot的flink-do-doris

?2.1.5.1、flink-do-doris主類

三、效果驗(yàn)證

3.1、發(fā)送syslog日志,syslog-kafka-es-avro監(jiān)聽處理,存儲到kafka

3.2?、查看flink消費(fèi)kafka

3.3、 在doris上查看入庫詳情


一、例子說明

1.1、概述

這是個(gè)例子,將輸入寫入kafka,flink消費(fèi)kafka,并實(shí)時(shí)寫入doris。

1.1、所需環(huán)境

軟件 版本 備注
kafka_2.12-3.5.0 kafka_2.12-3.5.0 使用自帶的zookeeper
flink-1.17.1 flink-1.17.1
jdk 1.8.0_202
doris 1.2.6 ( Stable )
spring-boot
 
2.1.17.RELEASE
syslog-kafka-es-avro
spring-boot 2.4.5
flink-do-doris
flink-doris-connector-1.17
1.4.0
elasticsearch 7.6.2
基礎(chǔ)目錄 /home
服務(wù)器 10.10.10.99 centos 7.x

1.2、執(zhí)行流程

?①、工具發(fā)送數(shù)據(jù)

?②、spring-boot基于netty開啟某端口監(jiān)聽,接收發(fā)送的消息內(nèi)容,進(jìn)行數(shù)據(jù)清洗、標(biāo)準(zhǔn)化

?③、kafka product組件接收上一步產(chǎn)生的數(shù)據(jù),已a(bǔ)vro格式保存到kafka某topic上。

?④、flink實(shí)時(shí)消費(fèi)kafka某topic,以流的方式進(jìn)行處理,輸出源設(shè)置為doris

?⑤、終端數(shù)據(jù)可在doris的fe頁面上實(shí)時(shí)查詢。

二、部署環(huán)境

2.1、中間件部署

2.1.1部署kakfa

2.1.1.1 上傳解壓kafka安裝包

將安裝包kafka_2.12-3.5.0.tar.gz上傳到/home目錄

tar -zxvf?kafka_2.12-3.5.0.tar.gz

mv?kafka_2.12-3.5.0 kafka

2.1.1.2?修改zookeeper.properties

路徑:/home/kafka/config/zookeeper.properties

dataDir=/home/kafka/zookeeper
clientPort=2181
maxClientCnxns=0
admin.enableServer=false
# admin.serverPort=8080

2.1.1.3?修改server.properties

路徑:/home/kafka/config/server.properties

# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. ?See the NOTICE file distributed with
# this work for additional information regarding copyright ownership.
# The ASF licenses this file to You under the Apache License, Version 2.0
# (the "License"); you may not use this file except in compliance with
# the License. ?You may obtain a copy of the License at
#
# ? ?http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.

#
# This configuration file is intended for use in ZK-based mode, where Apache ZooKeeper is required.
# See kafka.server.KafkaConfig for additional details and defaults
#

############################# Server Basics #############################

# The id of the broker. This must be set to a unique integer for each broker.
broker.id=0

############################# Socket Server Settings #############################

# The address the socket server listens on. If not configured, the host name will be equal to the value of
# java.net.InetAddress.getCanonicalHostName(), with 文章來源地址http://www.zghlxwxcb.cn/news/detail-625271.html

到了這里,關(guān)于flink+kafka+doris+springboot集成例子的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • flink1.17.0 集成kafka,并且計(jì)算

    flink1.17.0 集成kafka,并且計(jì)算

    flink是實(shí)時(shí)計(jì)算的重要集成組件,這里演示如何集成,并且使用一個(gè)小例子。例子是kafka輸入消息,用逗號隔開,統(tǒng)計(jì)每個(gè)相同單詞出現(xiàn)的次數(shù),這么一個(gè)功能。 這里我使用的kafka版本是3.2.0,部署的方法可以參考, kafka部署 啟動(dòng)后查看java進(jìn)程是否存在,存在后執(zhí)行下一步。

    2024年02月09日
    瀏覽(18)
  • 實(shí)時(shí)Flink的數(shù)據(jù)庫與Kafka集成優(yōu)化案例

    在現(xiàn)代數(shù)據(jù)處理系統(tǒng)中,實(shí)時(shí)數(shù)據(jù)處理和分析是至關(guān)重要的。Apache Flink是一個(gè)流處理框架,可以用于實(shí)時(shí)數(shù)據(jù)處理和分析。在許多場景下,F(xiàn)link需要與數(shù)據(jù)庫和Kafka等消息系統(tǒng)進(jìn)行集成,以實(shí)現(xiàn)更高效的數(shù)據(jù)處理。本文將討論Flink與數(shù)據(jù)庫和Kafka集成的優(yōu)化案例,并提供實(shí)際示

    2024年02月20日
    瀏覽(29)
  • Apache Flink 和 Apache Kafka 兩者之間的集成架構(gòu) Flink and Apache Kafka: A Winning Partnership

    作者:禪與計(jì)算機(jī)程序設(shè)計(jì)藝術(shù) Apache Flink 和 Apache Kafka 是構(gòu)建可靠、高吞吐量和低延遲的數(shù)據(jù)管道(data pipeline)的兩個(gè)著名的開源項(xiàng)目。2019年4月,兩者宣布合作共贏。在這次合作中,Apache Kafka 將提供強(qiáng)大的消息存儲能力、Flink 將作為一個(gè)分布式數(shù)據(jù)流處理平臺來對其進(jìn)行

    2024年02月11日
    瀏覽(22)
  • kafka:java集成 kafka(springboot集成、客戶端集成)

    kafka:java集成 kafka(springboot集成、客戶端集成)

    摘要 對于java的kafka集成,一般選用springboot集成kafka,但可能由于對接方kafka老舊、kafka不安全等問題導(dǎo)致kafak版本與spring版本不兼容,這個(gè)時(shí)候就得自己根據(jù)kafka客戶端api集成了。 一、springboot集成kafka 具體官方文檔地址:https://docs.spring.io/spring-boot/docs/current/reference/htmlsingle/

    2023年04月22日
    瀏覽(94)
  • SpringBoot集成flink

    SpringBoot集成flink

    Flink是一個(gè)批處理和流處理結(jié)合的統(tǒng)一計(jì)算框架,其核心是一個(gè)提供了數(shù)據(jù)分發(fā)以及并行化計(jì)算的流數(shù)據(jù)處理引擎。 最大亮點(diǎn)是流處理,最適合的應(yīng)用場景是低時(shí)延的數(shù)據(jù)處理。 場景:高并發(fā)pipeline處理數(shù)據(jù),時(shí)延毫秒級,且兼具可靠性。 環(huán)境搭建: ①、安裝flink https://ni

    2024年04月17日
    瀏覽(21)
  • Kafka:springboot集成kafka收發(fā)消息

    Kafka:springboot集成kafka收發(fā)消息

    kafka環(huán)境搭建參考Kafka:安裝和配置_moreCalm的博客-CSDN博客 1、springboot中引入kafka依賴 2、配置application.yml 傳遞String類型的消息 3、controller實(shí)現(xiàn)消息發(fā)送接口 4、component中實(shí)現(xiàn)接收類HelloListener? 5、測試 瀏覽器訪問該接口并查看控制臺 ? ? ? ? 接收成功 ? 傳遞對象類型的消息

    2024年02月13日
    瀏覽(26)
  • springboot集成flink步驟,及demo

    springboot集成flink,寫代碼學(xué)習(xí)flink,集成步驟如下: 1、maven引入依賴: 2、配置文件配置相關(guān)參數(shù): 3、寫測試類,代碼如下 :

    2024年02月09日
    瀏覽(21)
  • Kafka集成springboot

    Kafka集成springboot

    安裝kafka,直接到官網(wǎng)下載bin文件,本文使用windows進(jìn)行使用kafka。 下載之后,第一步,啟動(dòng)zookeeper: zookeeper-server-start.bat ....configzookeeper.properties ?第二步,啟動(dòng)kafka: kafka-server-start.bat ....configserver.properties ?第三步,在pom中導(dǎo)入依賴: 第四步,修改yml文件,添加配置:

    2024年02月04日
    瀏覽(16)
  • SpringBoot 集成 Kafka 配置

    自定義分區(qū)器 生產(chǎn)者 消費(fèi)者 配置文件 自定義分區(qū)器 生產(chǎn)者 消費(fèi)者配置 消費(fèi)數(shù)據(jù)過濾 消費(fèi)異常處理類 消費(fèi)者配置? @KafkaListener

    2024年02月15日
    瀏覽(17)
  • 八、SpringBoot集成Kafka

    1、修改 SpringBoot 核心配置文件 application.propeties, 添加生產(chǎn)者相關(guān)信息 2、創(chuàng)建 controller 從瀏覽器接收數(shù)據(jù), 并寫入指定的 topic 1、修改 SpringBoot 核心配置文件 application.propeti 2、創(chuàng)建類消費(fèi) Kafka 中指定 topic 的數(shù)據(jù) 一些配置總結(jié)

    2024年02月10日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包