国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

ELK日志收集平臺(tái)部署(kafka)

這篇具有很好參考價(jià)值的文章主要介紹了ELK日志收集平臺(tái)部署(kafka)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

正文:ELK日志收集平臺(tái)部署

Kafka和zookeeper簡(jiǎn)介

Kafka:

數(shù)據(jù)緩沖隊(duì)列。作為消息隊(duì)列解耦合處理過程,同時(shí)提高了可擴(kuò)展性。具有峰值處理能力,使用消息隊(duì)列能夠使關(guān)鍵組件頂住突發(fā)的訪問壓力,而不會(huì)因?yàn)橥话l(fā)的超負(fù)荷的請(qǐng)求而完全崩潰。基于zookeeper協(xié)調(diào)的分布式消息系統(tǒng),它的最大的特性就是可以實(shí)時(shí)的處理大量數(shù)據(jù)以滿足各種需求場(chǎng)景:比如基于hadoop的批處理系統(tǒng)、低延遲的實(shí)時(shí)系統(tǒng)、web/nginx日志、訪問日志,消息服務(wù)等等,用scala語言編寫,Linkedin于2010年貢獻(xiàn)給了Apache基金會(huì)并成為頂級(jí)開源 項(xiàng)目。

Kafka的特性:

  • 高吞吐量:kafka每秒可以處理幾十萬條消息。

  • 可擴(kuò)展性:kafka集群支持熱擴(kuò)展

  • 可靠性:消息被持久化到本地磁盤,并且支持?jǐn)?shù)據(jù)備份防止數(shù)據(jù)丟失

  • 高并發(fā):支持?jǐn)?shù)千個(gè)客戶端同時(shí)讀寫

    它主要包括以下組件

    話題(Topic):是特定類型的消息流。(每條發(fā)布到 kafka 集群的消息屬于的類別,即 kafka 是面向 topic 的。) 生產(chǎn)者(Producer):是能夠發(fā)布消息到話題的任何對(duì)象(發(fā)布消息到 kafka 集群的終端或服務(wù)). 消費(fèi)者(Consumer):可以訂閱一個(gè)或多個(gè)話題,從而消費(fèi)這些已發(fā)布的消息。 服務(wù)代理(Broker):已發(fā)布的消息保存在一組服務(wù)器中,它們被稱為代理(Broker)或Kafka集群。 zookeeper:kafka 通過 zookeeper 來存儲(chǔ)集群的信息。

ZooKeeper的特性:

ZooKeeper是一個(gè)分布式協(xié)調(diào)服務(wù),Kafka的運(yùn)行依賴ZooKeeper。ZooKeeper主要用來協(xié)調(diào)Kafka的各個(gè)broker,而且當(dāng)增加了broker或者某個(gè)broker故障了,ZooKeeper將會(huì)通知生產(chǎn)者和消費(fèi)者,這樣可以保證整個(gè)系統(tǒng)正常運(yùn)轉(zhuǎn)。

在Kafka中集群中broker的分布情況與消費(fèi)者當(dāng)前消費(fèi)的狀態(tài)信息都會(huì)保存在ZooKeeper中。

=========================================================================

系統(tǒng)類型:Centos7

節(jié)點(diǎn)IP:192.168.246.234,192.168.246.231、192.168.246.235

軟件版本:jdk-8u121-linux-x64.tar.gz、kafka_2.11-2.1.0.tgz

示例節(jié)點(diǎn):172.16.246.231

1.安裝配置jdk8

1)Kafka、Zookeeper(簡(jiǎn)稱:ZK)運(yùn)行依賴jdk8

tar zxvf /usr/local/package/jdk-8u121-linux-x64.tar.gz -C /usr/local/
echo '
JAVA_HOME=/usr/local/jdk1.8.0_121
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME PATH
' >>/etc/profile
source /etc/profile

?2.安裝配置ZK

Kafka運(yùn)行依賴ZK,Kafka官網(wǎng)提供的tar包中,已經(jīng)包含了ZK,這里不再額下載ZK程序。

配置相互解析---三臺(tái)機(jī)器

[root@es-2-zk-log ~]# vim /etc/hosts
192.168.246.234 mes-1
192.168.246.231 es-2-zk-log
192.168.246.235 es-3-head-kib

1)安裝

[root@es-2-zk-log ~]# tar xzvf kafka_2.11-2.1.0.tgz -C /usr/local/

2)配置

[root@mes-1 ~]# sed -i 's/^[^#]/#&/' /usr/local/kafka_2.11-2.1.0/config/zookeeper.properties
[root@mes-1 ~]# vim /usr/local/kafka_2.11-2.1.0/config/zookeeper.properties? #添加如下配置

dataDir=/opt/data/zookeeper/data
dataLogDir=/opt/data/zookeeper/logs
clientPort=2181
tickTime=2000
initLimit=20
syncLimit=10
server.1=192.168.246.231:2888:3888             //kafka集群IP:Port
server.2=192.168.246.234:2888:3888
server.3=192.168.246.235:2888:3888


#創(chuàng)建data、log目錄
[root@mes-1 ~]# mkdir -p /opt/data/zookeeper/{data,logs}
#創(chuàng)建myid文件
[root@mes-1 ~]# echo 1 > /opt/data/zookeeper/data/myid ? ? #myid號(hào)按順序排

[root@es-2-zk-log ~]# sed -i 's/^[^#]/#&/' /usr/local/kafka_2.11-2.1.0/config/zookeeper.properties
[root@es-2-zk-log ~]# vim /usr/local/kafka_2.11-2.1.0/config/zookeeper.properties

dataDir=/opt/data/zookeeper/data
dataLogDir=/opt/data/zookeeper/logs
clientPort=2181
tickTime=2000
initLimit=20
syncLimit=10
server.1=192.168.246.231:2888:3888
server.2=192.168.246.234:2888:3888
server.3=192.168.246.235:2888:3888


#創(chuàng)建data、log目錄
[root@es-2-zk-log ~]# mkdir -p /opt/data/zookeeper/{data,logs}
#創(chuàng)建myid文件
[root@es-2-zk-log ~]# echo 2 > /opt/data/zookeeper/data/myid

[root@es-3 ~]# sed -i 's/^[^#]/#&/' /usr/local/kafka_2.11-2.1.0/config/zookeeper.properties
[root@es-3-head-kib ~]# vim /usr/local/kafka_2.11-2.1.0/config/zookeeper.properties

dataDir=/opt/data/zookeeper/data
dataLogDir=/opt/data/zookeeper/logs
clientPort=2181
tickTime=2000
initLimit=20
syncLimit=10
server.1=192.168.246.231:2888:3888
server.2=192.168.246.234:2888:3888
server.3=192.168.246.235:2888:3888


#創(chuàng)建data、log目錄
[root@es-3-head-kib ~]# mkdir -p /opt/data/zookeeper/{data,logs}
#創(chuàng)建myid文件
[root@es-3-head-kib ~]# echo 3 > /opt/data/zookeeper/data/myid

3.配置Kafka

1)配置

節(jié)點(diǎn)1:

[root@mes-1 ~]# sed -i 's/^[^#]/#&/' /usr/local/kafka_2.11-2.1.0/config/server.properties
[root@mes-1 ~]# vim /usr/local/kafka_2.11-2.1.0/config/server.properties? #在最后添加

broker.id=1
listeners=PLAINTEXT://192.168.246.231:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/opt/data/kafka/logs
num.partitions=6
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=2
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=536870912
log.retention.check.interval.ms=300000
zookeeper.connect=192.168.246.231:2181,192.168.246.234:2181,192.168.246.235:2181
zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=0


[root@mes-1 ~]# mkdir -p /opt/data/kafka/logs

節(jié)點(diǎn)2:

[root@es-2-zk-log ~]# sed -i 's/^[^#]/#&/' /usr/local/kafka_2.11-2.1.0/config/server.properties
[root@es-2-zk-log ~]# vim /usr/local/kafka_2.11-2.1.0/config/server.properties

broker.id=2
listeners=PLAINTEXT://192.168.246.234:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/opt/data/kafka/logs
num.partitions=6
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=2
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=536870912
log.retention.check.interval.ms=300000
zookeeper.connect=192.168.246.231:2181,192.168.246.234:2181,192.168.246.235:2181
zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=0


[root@es-2-zk-log ~]# mkdir -p /opt/data/kafka/logs

節(jié)點(diǎn)3:

[root@es-3-head-kib ~]# sed -i 's/^[^#]/#&/' /usr/local/kafka_2.11-2.1.0/config/server.properties
[root@es-3-head-kib ~]# vim /usr/local/kafka_2.11-2.1.0/config/server.properties

broker.id=3
listeners=PLAINTEXT://192.168.246.235:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/opt/data/kafka/logs
num.partitions=6
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=2
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=536870912
log.retention.check.interval.ms=300000
zookeeper.connect=192.168.246.231:2181,192.168.246.234:2181,192.168.246.235:2181
zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=0


[root@es-3-head-kib ~]# mkdir -p /opt/data/kafka/logs

4、其他節(jié)點(diǎn)配置

只需把配置好的安裝包直接分發(fā)到其他節(jié)點(diǎn),Kafka的broker.id和listeners就可以了。

5、啟動(dòng)、驗(yàn)證ZK集群

1)啟動(dòng)

在三個(gè)節(jié)點(diǎn)依次執(zhí)行:

[root@mes-1 ~]# cd /usr/local/kafka_2.11-2.1.0/
[root@mes-1 kafka_2.11-2.1.0]# nohup bin/zookeeper-server-start.sh config/zookeeper.properties &

2)驗(yàn)證

查看端口

[root@mes-1 ~]# netstat -lntp | grep 2181
tcp6 ? ? ? 0 ? ?? 0 :::2181 ? ? ? ? ? ? ? ? :::* ? ? ? ? ? ? ? ? ?? LISTEN ? ?? 1226/java
?

6、啟動(dòng)、驗(yàn)證Kafka

1)啟動(dòng)

在三個(gè)節(jié)點(diǎn)依次執(zhí)行:

[root@mes-1 ~]# cd /usr/local/kafka_2.11-2.1.0/
[root@mes-1 kafka_2.11-2.1.0]# nohup bin/kafka-server-start.sh config/server.properties &

2)驗(yàn)證

在192.168.246.231上創(chuàng)建topic

[root@es-2-zk-log kafka_2.11-2.1.0]# bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic testtopic
Created topic "testtopic".

在246.235上面查詢192.168.246.231上的topic

[root@es-3-head-kib kafka_2.11-2.1.0]# bin/kafka-topics.sh --zookeeper 192.168.246.231:2181 --list
testtopic

模擬消息生產(chǎn)和消費(fèi) 發(fā)送消息到192.168.246.231

[root@mes-1 kafka_2.11-2.1.0]# bin/kafka-console-producer.sh --broker-list 192.168.246.231:9092 --topic testtopic
>hello
?

?從192.168.246.234接受消息

[root@es-2-zk-log kafka_2.11-2.1.0]# bin/kafka-console-consumer.sh --bootstrap-server? 192.168.246.234:9092 --topic testtopic --from-beginning
hello

kafka配置完成

kafka沒有問題之后,回到logstash服務(wù)器:
#安裝完kafka之后的操作:
[root@es-2-zk-log ~]# cd /usr/local/logstash-6.5.4/etc/conf.d/
[root@es-2-zk-log conf.d]# cp input.conf input.conf.bak
[root@es-2-zk-log conf.d]# vim input.conf

input {
kafka {               #指定kafka服務(wù)
   type => "nginx_log"
   codec => "json"        #通用選項(xiàng),用于輸入數(shù)據(jù)的編解碼器
   topics => "nginx"        #這里定義的topic
   decorate_events => true  #會(huì)將當(dāng)前topic信息也帶到message中
   bootstrap_servers => "192.168.246.234:9092, 192.168.246.231:9092, 192.168.246.235:9092"
  }
}  


啟動(dòng) logstash
[root@es-2-zk-log conf.d]# cd /usr/local/logstash-6.5.4/
[root@es-2-zk-log logstash-6.5.4]# nohup bin/logstash -f etc/conf.d/? --config.reload.automatic &文章來源地址http://www.zghlxwxcb.cn/news/detail-822549.html

到了這里,關(guān)于ELK日志收集平臺(tái)部署(kafka)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【ELK 使用指南 1】ELK + Filebeat 分布式日志管理平臺(tái)部署

    【ELK 使用指南 1】ELK + Filebeat 分布式日志管理平臺(tái)部署

    在運(yùn)維中, 日志是非常重要的工具 ,用于記錄系統(tǒng)、應(yīng)用程序或設(shè)備的運(yùn)行狀態(tài)、事件和異常情況。 1)故障排除和問題診斷 日志是排查故障和診斷問題的關(guān)鍵信息源。 通過分析日志文件,可以查找和定位系統(tǒng)故障、錯(cuò)誤和異常,幫助運(yùn)維人員迅速找出問題的根本原因,并

    2024年02月07日
    瀏覽(24)
  • 【分布式技術(shù)】ELK大型日志收集分析系統(tǒng)

    【分布式技術(shù)】ELK大型日志收集分析系統(tǒng)

    目錄 步驟一:完成JAVA環(huán)境部署 步驟二:部署ES節(jié)點(diǎn)(三臺(tái)主機(jī)) 步驟三:內(nèi)核參數(shù)修改 步驟四:web端查看驗(yàn)證 步驟五:yum安裝nginx ?步驟六:完成logstash部署 步驟七:部署kibana ?步驟八:測(cè)試ELK

    2024年01月20日
    瀏覽(33)
  • Elk+Filebeat+Kafka實(shí)現(xiàn)日志收集

    Elk+Filebeat+Kafka實(shí)現(xiàn)日志收集

    1.實(shí)驗(yàn)組件 2.安裝前準(zhǔn)備 3.安裝Zookeeper 1.安裝Kafka 2.命令行測(cè)試 ?1.安裝Filebeat 2.時(shí)間同步 3.配置filebeat 4.配置logstash 1.安裝配置filebeat 2.配置logstash

    2024年02月05日
    瀏覽(28)
  • ELK+Kafka+Zookeeper日志收集系統(tǒng)

    ELK+Kafka+Zookeeper日志收集系統(tǒng)

    節(jié)點(diǎn)IP 節(jié)點(diǎn)規(guī)劃 主機(jī)名 192.168.112.3 Elasticsearch + Kibana + Logstash + Zookeeper + Kafka + Nginx elk-node1 192.168.112.3 Elasticsearch + Logstash + Zookeeper + Kafka elk-node2 192.168.112.3 Elasticsearch + Logstash + Zookeeper + Kafka + Nginx elk-node3 修改主機(jī)名 配置映射 安裝Elasticserach 三臺(tái)主機(jī)都需安裝java及elasticserach 啟動(dòng)

    2024年04月18日
    瀏覽(21)
  • 分布式技術(shù)--------------ELK大規(guī)模日志實(shí)時(shí)收集分析系統(tǒng)

    分布式技術(shù)--------------ELK大規(guī)模日志實(shí)時(shí)收集分析系統(tǒng)

    目錄 一、ELK日志分析系統(tǒng) 1.1ELK介紹 1.2ELK各組件介紹 1.2.1ElasticSearch 1.2.2Kiabana 1.2.3Logstash 1.2.4可以添加的其它組件 1.2.4.1Filebeat filebeat 結(jié)合logstash 帶來好處 1.2.4.2緩存/消息隊(duì)列(redis、kafka、RabbitMQ等) 1.2.4.3Fluentd 二、為什么要使用 ELK 三、完整日志系統(tǒng)基本特征 四、ELK 的工作

    2024年04月17日
    瀏覽(43)
  • ELK (一)部署ELK+Filebeat日志收集分析系統(tǒng)

    ELK (一)部署ELK+Filebeat日志收集分析系統(tǒng)

    說明:此安裝流程只適用于8.0.0以下的版本 1.1 下載ElasticSearch的wget指令: 1.2 解壓安裝包到指定目錄 指定解壓縮到 /usr/local 目錄下 1.3 修改配置文件 (1)elasticsearch.yml 分別創(chuàng)建 path.data、path.logs 對(duì)應(yīng)的 data、logs文件夾。 詳細(xì)配置: (2)limits.conf 末尾追加以下內(nèi)容: (3)s

    2024年02月08日
    瀏覽(26)
  • ELK群集部署日志收集

    ELK平臺(tái)是一套完整的日志集中處理解決方案 由ElasticSearch、Logstash、Kiabana三個(gè)開源工具配合使用 是用戶對(duì)日志的查詢、排序、統(tǒng)計(jì)的強(qiáng)大工具組合 一般用于大型企業(yè),中小型企業(yè)一般會(huì)選擇(rsyslog+日志服務(wù)器或者shell+Python收集日志) logstash進(jìn)行日志數(shù)據(jù)收集并且格式化之后

    2023年04月20日
    瀏覽(22)
  • 從小白到大神之路之學(xué)習(xí)運(yùn)維第54天--------ELK日志收集分析

    從小白到大神之路之學(xué)習(xí)運(yùn)維第54天--------ELK日志收集分析

    第三階段基礎(chǔ) 時(shí) ?間:2023年7月6日 參加人:全班人員 內(nèi) ?容: ELK技術(shù)堆棧 目錄 服務(wù)器設(shè)置: 部署elasticsearch集群: 配置elasticsearch集群: 配置收集系統(tǒng)日志: elk_cluster集群 主機(jī)名 huyang1 huyang2 huyang3 IP地址 192.168.59.137 192.168.59.138 192.168.59.140 環(huán)境配置:(三臺(tái)服務(wù)器都配置)

    2024年02月13日
    瀏覽(25)
  • SpringBoot+Kafka+ELK 完成海量日志收集(超詳細(xì))

    SpringBoot+Kafka+ELK 完成海量日志收集(超詳細(xì))

    SpringBoot項(xiàng)目準(zhǔn)備 引入log4j2替換SpringBoot默認(rèn)log,demo項(xiàng)目結(jié)構(gòu)如下: pom IndexController 測(cè)試Controller,用以打印日志進(jìn)行調(diào)試 InputMDC 用以獲取log中的 [%X{hostName}] 、 [%X{ip}] 、 [%X{applicationName}] 三個(gè)字段值 NetUtil 啟動(dòng)項(xiàng)目,訪問 /index 和 /ero 接口,可以看到項(xiàng)目中生成了 app-collector.

    2024年04月16日
    瀏覽(20)
  • ZooKeeper+Kafka+ELK+Filebeat集群搭建實(shí)現(xiàn)大批量日志收集和展示

    ZooKeeper+Kafka+ELK+Filebeat集群搭建實(shí)現(xiàn)大批量日志收集和展示

    大致流程:將nginx 服務(wù)器(web-filebeat)的日志通過filebeat收集之后,存儲(chǔ)到緩存服務(wù)器kafka,之后logstash到kafka服務(wù)器上取出相應(yīng)日志,經(jīng)過處理后寫入到elasticsearch服務(wù)器并在kibana上展示。 一、集群環(huán)境準(zhǔn)備 二、搭建zookeeper集群 前提條件:三臺(tái)機(jī)器分別修改時(shí)區(qū)、關(guān)閉防火墻

    2024年02月04日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包