国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

filebeat+kafka+logstash+elasticsearch+kibana實(shí)現(xiàn)日志收集解決方案

這篇具有很好參考價(jià)值的文章主要介紹了filebeat+kafka+logstash+elasticsearch+kibana實(shí)現(xiàn)日志收集解決方案。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。


前言:我們使用nginx來模擬產(chǎn)生日志的服務(wù),通過filebeat收集,交給kafka進(jìn)行消息隊(duì)列,再用logstash消費(fèi)kafka集群中的數(shù)據(jù),交給elasticsearch+kibana監(jiān)控

一,環(huán)境


nginx + logstash + kafka +es +kibana,kafka,elasticsearch,java,Powered by 金山文檔

服務(wù)器環(huán)境:文章來源地址http://www.zghlxwxcb.cn/news/detail-776259.html

192.168.2.1:elasticsearch
192.168.2.2:filebeat+nginx
192.168.2.3:kafka
192.168.2.4:logstash

二,服務(wù)的安裝


elasticseatch+filebeat+kafka+logsstash(6.60)清華源下載: https://mirrors.tuna.tsinghua.edu.cn/elasticstack/6.x/yum/6.6.0/
zookeeper官網(wǎng)下載: https://zookeeper.apache.org/releases.html
kafka官網(wǎng)下載: https://kafka.apache.org/downloads

一,配置elasticsearch

1.驗(yàn)證java環(huán)境(存在無需安裝)
java -version#驗(yàn)證java環(huán)境
安裝JDK1.8:yum -y install java-1.8.0-openjdk.x86_64
2.安裝elasticsearch
rpm -ivh /mnt/elk-6.6/elasticsearch-6.6.0.rpm
3.修改配置文件
vi /etc/elasticsearch/elasticsearch.yml
修改一下內(nèi)容:
node.name: node-1                       #群集中本機(jī)節(jié)點(diǎn)名
network.host: 192.168.2.1,127.0.0.1 #監(jiān)聽的ip地址
http.port: 9200         
4.開啟elasticsearch
systemctl start elasticsearch
5.查看啟動情況
[root@localhost ~]# netstat -anpt | grep java
tcp6       0      0192.168.2.1:9200        :::*                    LISTEN      12564/java
tcp6       0      0127.0.0.1:9200          :::*                    LISTEN      12564/java
tcp6       0      0192.168.2.1:9300        :::*                    LISTEN      12564/java
tcp6       0      0127.0.0.1:9300          :::*                    LISTEN      12564/java
tcp6       0      0192.168.2.1:9200        192.168.2.4:34428       ESTABLISHED 12564/java
tcp6       0      0192.168.2.1:9200        192.168.2.4:34436       ESTABLISHED 12564/java

二,配置filebeat+nginx

1.安裝nginx
yum -y install nginx
2.安裝filebeat
rpm -ivh /mnt/elk-6.6/filebeat-6.6.0-x86_64.rpm
3.修改filebeat配置文件
[root@localhost ~]# vi /etc/filebeat/filebeat.yml
添加一下內(nèi)容:
filebeat.inputs:
- type: log
  enabled: true
  paths:
    - /var/log/nginx/access.log
?
output.kafka:
  enabled: true
  hosts: ["192.168.2.3:9092"]   #kafka的IP地址和端口
  topic: test1                  #kafka的topic
4.開啟服務(wù)
systemctl start nginx
systemctl start filebeat

三,配置kafka環(huán)境

1.安裝java環(huán)境(存在無需安裝)
yum -y install java-1.8.0-openjdk.x86_64
2.安裝zookeeper
tar xf /mnt/zookeeper-3.4.9.tar.gz -C /usr/local/
mv /usr/local/zookeeper-3.4.9/ /usr/local/zookeeper
cd /usr/local/zookeeper/conf
cp zoo_sample.cfg zoo.cfg
vi zoo.cfg
mkdir data logs
echo 1 > data/myid
/usr/local/zookeeper/bin/zkServer.sh start
/usr/local/zookeeper/bin/zkServer.sh status
1.修改zookeeper配置文件
vi zoo.cfg
添加一下內(nèi)容:
dataDir=/usr/local/zookeeper/data
dataLogDir=/usr/local/zookeeper/logs
server.1=192.168.2.3:3188:3288
保存退出
mkdir data logs
echo1 > data/myid
2.啟動zookeeper文件
/usr/local/zookeeper/bin/zkServer.sh start
/usr/local/zookeeper/bin/zkServer.sh status
3.安裝kafka
tar xf /mnt/kafka_2.11-2.2.1.tgz -C /usr/local/
mv /usr/local/kafka_2.11-2.2.1/ /usr/local/kafka
4.配置kafka
cd /usr/local/kafka/config/
cp server.properties server.properties.bak
vi server.properties
修改一下內(nèi)容:
broker.id=1
listeners=PLAINTEXT://192.168.2.3:9092
zookeeper.connect=192.168.2.3:2181
5.啟動kafka
cd /usr/local/kafka/
./bin/kafka-server-start.sh  ./config/server.properties   &
6.kafka創(chuàng)建topic
./bin/kafka-topics.sh --create--zookeeper localhost:2181 --replication-factor1--partitions1--topic test1   #創(chuàng)建名為test1的topic
./bin/kafka-topics.sh --list--zookeeper localhost:2181     #查看當(dāng)前有哪些topic
./bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test1 --from-beginning    #查看test1中有那些信息

四,配置logstash

1.安裝java環(huán)境(存在可省略)
yum -y install java-1.8.0-openjdk.x86_64
2.安裝logstash
rpm -ivh /mnt/elk-6.6/logstash-6.6.0.rpm
3.編寫配置文件
vi /etc/logstash/conf.d/kafka.conf
input {
  kafka {
    bootstrap_servers => ["192.168.2.3:9092"]
    group_id => "es-test"
    topics => ["test1"]                         #與filebeat使用的topic一致
    codec => json
 }
}
?
output {
  kafka{
       codec => json {
            charset => "UTF-8"
        }
    topic_id => "test1"
    bootstrap_servers => "192.168.2.3:9092"
?
  }
  elasticsearch {
    hosts => "http://192.168.2.1:9200"
    index => "kafka‐%{+YYYY.MM.dd}"
 }
}
4.啟動服務(wù)
/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/redis.conf

五,配置kibana

1.安裝kiana
 rpm -ihv /mnt/elk-6.6/kibana-6.6.0-x86_64.rpm
2.配置kiana
vim /etc/kibana/kibana.yml
修改:
server.port: 5601
server.host: "192.168.2.5"
server.name: "db01"
elasticsearch.hosts: ["http://192.168.2.1:9200"]   #es服務(wù)器的ip,便于接收日志數(shù)據(jù)
3.開啟kiana服務(wù)
systemctl start kibana

三,收集日志


一,kibana收集日志
  1. 添加日志信息
nginx + logstash + kafka +es +kibana,kafka,elasticsearch,java,Powered by 金山文檔
  1. 選擇日志格式
nginx + logstash + kafka +es +kibana,kafka,elasticsearch,java,Powered by 金山文檔
3.查看日志信息
nginx + logstash + kafka +es +kibana,kafka,elasticsearch,java,Powered by 金山文檔

到了這里,關(guān)于filebeat+kafka+logstash+elasticsearch+kibana實(shí)現(xiàn)日志收集解決方案的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 日志系統(tǒng)一(elasticsearch+filebeat+logstash+kibana)

    日志系統(tǒng)一(elasticsearch+filebeat+logstash+kibana)

    目錄 一、es集群部署 安裝java環(huán)境 部署es集群 安裝IK分詞器插件 二、filebeat安裝(docker方式) 三、logstash部署 四、kibana部署 背景:因業(yè)務(wù)需求需要將nginx、java、ingress日志進(jìn)行收集。 架構(gòu):filebeat+logstash+es+kibana 服務(wù)器規(guī)劃: 192.168.7.250(es) 192.168.6.216(filebeat,es) 192.168.7

    2024年02月03日
    瀏覽(27)
  • 搭建EFK(Elasticsearch+Filebeat+Kibana)日志收集系統(tǒng)[windows]

    搭建EFK(Elasticsearch+Filebeat+Kibana)日志收集系統(tǒng)[windows]

    EFK簡介 Elasticsearch 是一個(gè)實(shí)時(shí)的、分布式的可擴(kuò)展的搜索引擎,允許進(jìn)行全文、結(jié)構(gòu)化搜索,它通常用于索引和搜索大量日志數(shù)據(jù),也可用于搜索許多不同類型的文檔。 FileBeats 是數(shù)據(jù)采集的得力工具。將 Beats 和您的容器一起置于服務(wù)器上,或者將 Beats 作為函數(shù)加以部署,然

    2024年02月08日
    瀏覽(29)
  • ELKF日志系統(tǒng)搭建部署教程:從零開始構(gòu)建Elasticsearch + Logstash + Filebeat + Kibana

    ELKF日志系統(tǒng)搭建部署教程:從零開始構(gòu)建Elasticsearch + Logstash + Filebeat + Kibana

    學(xué)習(xí)如何從頭開始搭建和部署ELKF日志系統(tǒng),利用Elasticsearch、Logstash、Filebeat和Kibana來實(shí)現(xiàn)高效的數(shù)據(jù)采集、處理和可視化展示。跟隨本教程,輕松構(gòu)建穩(wěn)定的日志系統(tǒng)。

    2024年02月05日
    瀏覽(21)
  • 使用Filebeat+Kafka+Logstash+Elasticsearch構(gòu)建日志分析系統(tǒng)

    使用Filebeat+Kafka+Logstash+Elasticsearch構(gòu)建日志分析系統(tǒng)

    ?? ? ? ?隨著時(shí)間的積累,日志數(shù)據(jù)會越來越多,當(dāng)您需要查看并分析龐雜的日志數(shù)據(jù)時(shí),可通過Filebeat+Kafka+Logstash+Elasticsearch采集日志數(shù)據(jù)到Elasticsearch中,并通過Kibana進(jìn)行可視化展示與分析。本文介紹具體的實(shí)現(xiàn)方法。 Kafka是一種分布式、高吞吐、可擴(kuò)展的消息隊(duì)列服務(wù),

    2024年02月04日
    瀏覽(22)
  • K8s部署輕量級日志收集系統(tǒng)EFK(elasticsearch + filebeat + kibana)

    目錄 K8s部署EFK(elasticsear + filebeat + kibana)日志收集 一.準(zhǔn)備鏡像 二.搭建Elasticsearch + kibana 1.在可執(zhí)行kubectl命令的服務(wù)器準(zhǔn)備安裝的yml文件 2.在elasticsearch-kibana目錄下創(chuàng)建配置文件elasticsearch.yml 3.創(chuàng)建kibana配置文件kibana.yml 4.在k8s中創(chuàng)建elasticsearch和kibana的配置文件configmap 5.檢查

    2024年02月08日
    瀏覽(37)
  • 5、Elasticsearch7.6.1 filebeat介紹及收集kafka日志到es示例

    5、Elasticsearch7.6.1 filebeat介紹及收集kafka日志到es示例

    1、介紹lucene的功能以及建立索引、搜索單詞、搜索詞語和搜索句子四個(gè)示例實(shí)現(xiàn) 2、Elasticsearch7.6.1基本介紹、2種部署方式及驗(yàn)證、head插件安裝、分詞器安裝及驗(yàn)證 3、Elasticsearch7.6.1信息搜索示例(索引操作、數(shù)據(jù)操作-添加、刪除、導(dǎo)入等、數(shù)據(jù)搜索及分頁) 4、Elasticsearch7

    2024年02月16日
    瀏覽(22)
  • Elk+Filebeat+Kafka實(shí)現(xiàn)日志收集

    Elk+Filebeat+Kafka實(shí)現(xiàn)日志收集

    1.實(shí)驗(yàn)組件 2.安裝前準(zhǔn)備 3.安裝Zookeeper 1.安裝Kafka 2.命令行測試 ?1.安裝Filebeat 2.時(shí)間同步 3.配置filebeat 4.配置logstash 1.安裝配置filebeat 2.配置logstash

    2024年02月05日
    瀏覽(28)
  • 【微服務(wù)】日志搜集es+kibana+filebeat+redis+logstash(單機(jī))

    【微服務(wù)】日志搜集es+kibana+filebeat+redis+logstash(單機(jī))

    日志搜集系統(tǒng)搭建 基于7.17.16版本 ps: 項(xiàng)目是toB的,日志量不大 7.17.16版本。8.x版本需要JDK11 java8 elastic 軟件不能以root用戶啟動,需要?jiǎng)?chuàng)建用戶 redis elasticsearch kibana logstash filebeat 下載tar包,解壓即可 es部署 配置ES_JAVA_HOME 略 elasticsearch.yml 修改config/elasticsearch.yml中參數(shù) 系統(tǒng)參數(shù)

    2024年01月16日
    瀏覽(77)
  • Linux搭建ELK日志收集系統(tǒng)構(gòu)建:Filebeat+Redis+Logstash+Elasticse

    Linux搭建ELK日志收集系統(tǒng)構(gòu)建:Filebeat+Redis+Logstash+Elasticse

    一、ELK概述: ELK是一組開源軟件的簡稱,其包括Elasticsearch、Logstash 和 Kibana。ELK最近幾年發(fā)展迅速,已經(jīng)成為目前最流行的集中式日志解決方案。 Elasticsearch: 能對大容量的數(shù)據(jù)進(jìn)行接近實(shí)時(shí)的存儲,搜索和分析操作。 本項(xiàng)目中主要通過Elasticsearch存儲所有獲取的日志。 Logst

    2024年02月12日
    瀏覽(60)
  • elasticSearch+kibana+logstash+filebeat集群改成https認(rèn)證

    elasticSearch+kibana+logstash+filebeat集群改成https認(rèn)證

    ps:主節(jié)點(diǎn)操作 切換用戶:su es 進(jìn)入目錄:cd /home/es/elasticsearch-7.6.2 創(chuàng)建文件:vi instances.yml 生成證書:/home/es/elasticsearch-7.6.2/bin/elasticsearch-certutil cert ca --pem --in instances.yml --out certs.zip 解壓得到各個(gè)證書:unzip certs.zip ps:三個(gè)節(jié)點(diǎn) 切換用戶:su es 將解壓得到的三個(gè)文件夾文件

    2024年02月09日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包