国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

filebeat->kafka>elk日志采集

這篇具有很好參考價值的文章主要介紹了filebeat->kafka>elk日志采集。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

kafka常用命令


查看所有topic

./kafka-topics.sh --zookeeper 10.1.10.163:2181 --list


查看kafka中指定topic的詳情

./kafka-topics.sh --zookeeper 10.1.10.163:2181 --topic ai_jl_analytic --describe

查看消費(fèi)者consumer的group列表

./kafka-consumer-groups.sh --bootstrap-server 10.1.10.163:9092 --list

創(chuàng)建topic

./kafka-topics.sh --create --zookeeper 10.1.10.163:2181 --replication-factor 1 --partitions 1 --topic mytest_topic


查看指定的group

./kafka-consumer-groups.sh --bootstrap-server 10.1.10.163:9092 --group ai-trace --describe


?模擬生產(chǎn)者生產(chǎn)消息:

./kafka-console-producer.sh --broker-list 10.1.10.163:9092 --topic mytest_topic

模擬消費(fèi)者消費(fèi)消息:

./kafka-console-consumer.sh --bootstrap-server 10.1.10.163:9092 --from-beginning --topic mytest_topic

啟動logstash ?

//啟動logstash ? ? ? ? ?--path.data ?指定數(shù)據(jù)存儲路徑
./logstash -f /data/logstash/config/kafka_applog_to_es.conf --path.data=/data/logstash/data1/

例子一 logstash? input??kafka output? ES 配置文件? ?

input{
  kafka{
    bootstrap_servers => "xx.x.xx.xxx:9092,xx.x.xx.xxx:9092,xx.x.xx.xxx:9092"
    topics_pattern  => "tag-nginx-log"
    consumer_threads => 5
    decorate_events => true
    auto_offset_reset => "latest"
    client_id => "logstash-bpm-nginx-access-log1"
    group_id => "logstashbpmnginxaccesslog1"
  }
}

filter {
    grok {
        match => [
                "message","%{HTTPDATE:timestamp}"
        ]
    }
    date {
        match => ["timestamp", "dd/MMM/yyyy:HH:mm:ss Z"]
    }
}

output {
  elasticsearch {
    hosts => ["xx.x.xx.xxx:9200"]
    index => "tag-nginx-log-%{+YYYY.MM.dd}"
  }
}

? client_id 與 group_id? 保證唯一即可。

例子二? logstash? input??kafka output? ES 配置文件? ?

input{
  kafka{
    bootstrap_servers => "XX.X.XX.XXX:9092,XX.X.XX.XXX:9092,XX.X.XX.XXX:9092"
    topics_pattern  => "tag*"
    consumer_threads => 5
    decorate_events => true
    auto_offset_reset => "latest"
    client_id => "logstash1-1"
    group_id => "logstash1"
    codec => multiline {
            pattern => "^\d{4}-\d{2}-\d{2}"
            negate => true
            what => "previous"
            charset => "UTF-8"
   }
  }
}

filter{
      grok{
        match=>{
                "message"=>"(?<date>\d{4}-\d{2}-\d{2}\s\d{2}:\d{2}:\d{2}.\d{3})\s\[(?<appName>.*)\]\s\[(?<profile>.*)\]\s\[((?<thread>.*))\]\s\[(?<traceId>.*)\]\s\[(?<class>[A-Za-z0-9/./?]{1,50})\]\s(?<level>[A-Z]{4,5}):(?<msg>.*)"
        }
        remove_field=>"message"
      }
      ruby {
        code => "event.set('index_date', event.timestamp.time.localtime + 8*60*60)"
      }
       mutate {
        convert => ["index_date", "string"]
        gsub => ["index_date", "T([\S\s]*?)Z", ""]
        gsub => ["index_date", "-", "."]
      }
}


output {
  elasticsearch {
    hosts => ["XX.X.XX.XXX:9200"]
    index => "%{profile}-%{appName}-%{index_date}"
  }
}

啟動filebeat


//可以防止日志爆盤,將所有標(biāo)準(zhǔn)輸出及標(biāo)準(zhǔn)錯誤輸出到/dev/null空設(shè)備,即沒有任何輸出信息。

nohup ./filebeat -e -c filebeat.yml >/dev/null 2>&1 & disown文章來源地址http://www.zghlxwxcb.cn/news/detail-494764.html

filebeat? output? kafka 基本配置文件? filebeat.yml
filebeat.inputs:
- type: log
  enabled: true
  paths:
   - /logs/nginx/access.log
  fields:
     log_topic: tag-nginx-access

output.kafka:
  enabled: true
  hosts: ["xx.x.xx.xxx:9092","xx.x.xx.xxx:9092","xx.x.xx.xxx:9092"]
  topic: tag-nginx-log
  version: "0.10"
  partition.round_robin:
    reachable_only: true
  worker: 2
  required_acks: 1
  compression: gzip
  max_message_bytes: 10240  

processors:
  - drop_fields:
     fields: ["host","input","agent","ecs","@version","flags","log","fields"]
     ignore_missing: false
logging.level: info 
name: "xx.x.x.xx"

到了這里,關(guān)于filebeat->kafka>elk日志采集的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 基于Filebeat、Kafka搭建ELK日志分析平臺詳細(xì)步驟

    基于Filebeat、Kafka搭建ELK日志分析平臺詳細(xì)步驟

    寫在前頭:公司一直沒有搭建一個支持實(shí)時查詢?nèi)罩镜钠脚_,平常看日志都得去服務(wù)器下載,大大降低開發(fā)效率,前段時間有大佬同事搭建了一款日志平臺,支持sit,uat等各個環(huán)境的日志實(shí)時查詢,大大提高bug定位速度。因?qū)ζ涓信d趣特向大佬請教,學(xué)習(xí)記錄下搭建流程。 選

    2024年02月06日
    瀏覽(36)
  • filebeat采集日志數(shù)據(jù)到kafka(一)(filebeat->kafka->logstash->es)

    filebeat采集日志數(shù)據(jù)到kafka(一)(filebeat->kafka->logstash->es)

    一、filebeat安裝 filebeat-kafka版本適配 1、安裝包下載 https://www.elastic.co/cn/downloads/past-releases#filebeat 解壓 2、新建yml配置文件,如test.yml 3、Filebeat啟動和停止 啟動:./filebeat -c test.yml 停止:kill -9 PID

    2024年02月16日
    瀏覽(23)
  • docker搭建Elk+Kafka+Filebeat分布式日志收集系統(tǒng)

    docker搭建Elk+Kafka+Filebeat分布式日志收集系統(tǒng)

    目錄 一、介紹 二、集群環(huán)境 三、ES集群 四、Kibana? 五、Logstash 六、Zookeeper 七、Kafka 八、Filebeat 八、Nginx (一)架構(gòu)圖 ?(二)組件介紹 1.Elasticsearch 是一個基于Lucene的搜索服務(wù)器。提供搜集、分析、存儲數(shù)據(jù)三大功能。它提供了一個分布式多用戶能力的全文搜索引擎,基于

    2024年02月04日
    瀏覽(26)
  • k8s部署elk+filebeat;springCloud集成elk+filebeat+kafka+zipkin實(shí)現(xiàn)多個服務(wù)日志鏈路追蹤聚合到es

    k8s部署elk+filebeat;springCloud集成elk+filebeat+kafka+zipkin實(shí)現(xiàn)多個服務(wù)日志鏈路追蹤聚合到es

    如今2023了,大多數(shù)javaweb架構(gòu)都是springboot微服務(wù),一個前端功能請求后臺可能是多個不同的服務(wù)共同協(xié)做完成的。例如用戶下單功能,js轉(zhuǎn)發(fā)到后臺 網(wǎng)關(guān)gateway服務(wù) ,然后到 鑒權(quán)spring-sercurity服務(wù) ,然后到 業(yè)務(wù)訂單服務(wù) ,然后到 支付服務(wù) ,后續(xù)還有發(fā)貨、客戶標(biāo)簽等等服務(wù)

    2024年02月16日
    瀏覽(26)
  • ZooKeeper+Kafka+ELK+Filebeat集群搭建實(shí)現(xiàn)大批量日志收集和展示

    ZooKeeper+Kafka+ELK+Filebeat集群搭建實(shí)現(xiàn)大批量日志收集和展示

    大致流程:將nginx 服務(wù)器(web-filebeat)的日志通過filebeat收集之后,存儲到緩存服務(wù)器kafka,之后logstash到kafka服務(wù)器上取出相應(yīng)日志,經(jīng)過處理后寫入到elasticsearch服務(wù)器并在kibana上展示。 一、集群環(huán)境準(zhǔn)備 二、搭建zookeeper集群 前提條件:三臺機(jī)器分別修改時區(qū)、關(guān)閉防火墻

    2024年02月04日
    瀏覽(25)
  • springboot整合ELK+kafka采集日志

    springboot整合ELK+kafka采集日志

    在分布式的項目中,各功能模塊產(chǎn)生的日志比較分散,同時為滿足性能要求,同一個微服務(wù)會集群化部署,當(dāng)某一次業(yè)務(wù)報錯后,如果不能確定產(chǎn)生的節(jié)點(diǎn),那么只能逐個節(jié)點(diǎn)去查看日志文件;logback中RollingFileAppender,ConsoleAppender這類同步化記錄器也降低系統(tǒng)性能,綜上一些

    2024年02月15日
    瀏覽(23)
  • 基于Filebeat+Kafka+ELK實(shí)現(xiàn)Nginx日志收集并采用Elastalert2實(shí)現(xiàn)釘釘告警

    基于Filebeat+Kafka+ELK實(shí)現(xiàn)Nginx日志收集并采用Elastalert2實(shí)現(xiàn)釘釘告警

    ???????先準(zhǔn)備3臺Nginx服務(wù)器,用做后端服務(wù)器,(由于機(jī)器有限,也直接用這三臺機(jī)器來部署ES集群),然后準(zhǔn)備2臺服務(wù)器做負(fù)載均衡器(Nginx實(shí)現(xiàn)負(fù)載均衡具體實(shí)現(xiàn)操作有機(jī)會在介紹),如果是簡單學(xué)習(xí)測試,可以先使用3臺Nginx服務(wù)器就可以,先告一段落。 3臺Nginx服務(wù)

    2024年02月15日
    瀏覽(32)
  • 【ELK企業(yè)級日志分析系統(tǒng)】部署Filebeat+Kafka+Logstash+Elasticsearch+Kibana集群詳解(EFLFK)

    【ELK企業(yè)級日志分析系統(tǒng)】部署Filebeat+Kafka+Logstash+Elasticsearch+Kibana集群詳解(EFLFK)

    參見安裝與部署ELK詳解 參見安裝與部署EFLK詳解 參見安裝與部署Zookeeper集群詳解 1.1.1 為什么需要消息隊列(MQ) MQ(Message Queue)主要原因是由于 在高并發(fā)環(huán)境下,同步請求來不及處理,請求往往會發(fā)生阻塞 。比如大量的并發(fā)請求,訪問數(shù)據(jù)庫,導(dǎo)致行鎖表鎖,最后請求線程會

    2024年02月16日
    瀏覽(28)
  • 私有部署ELK,搭建自己的日志中心(六)-- 引入kafka對采集日志進(jìn)行削峰填谷

    私有部署ELK,搭建自己的日志中心(六)-- 引入kafka對采集日志進(jìn)行削峰填谷

    首先,要說明一點(diǎn),elk日志中心,是可以缺少kafka組件的。 其次,如果是研發(fā)環(huán)境下,機(jī)器資源緊張的情況下,也是可不部署kafka。 最后,因為kafka的部署是可以獨(dú)立的,所以本文將另行部署,不和elk一起。 本機(jī)的IP地址是192.168.8.29,請你修改為自己的IP 本機(jī)的IP地址是192.1

    2024年02月04日
    瀏覽(24)
  • 【運(yùn)維知識大神篇】超詳細(xì)的ELFK日志分析教程7(filebeat常用模塊+filebeat采集固定格式日志+自定義日志格式寫入ES+EFK架構(gòu)轉(zhuǎn)ELFK架構(gòu)+兩個業(yè)務(wù)實(shí)戰(zhàn)練習(xí))

    【運(yùn)維知識大神篇】超詳細(xì)的ELFK日志分析教程7(filebeat常用模塊+filebeat采集固定格式日志+自定義日志格式寫入ES+EFK架構(gòu)轉(zhuǎn)ELFK架構(gòu)+兩個業(yè)務(wù)實(shí)戰(zhàn)練習(xí))

    本篇文章繼續(xù)給大家介紹ELFK日志分析,詳細(xì)請見下面目錄。 目錄 filebeat采集nginx日志 filebeat模塊使用 一、Nginx模塊 二、tomcat模塊 三、filebeat寫數(shù)據(jù)到ES集群自定義索引 四、filebeat自定義字段之nginx寫入ES 五、filebeat自定義字段之tomcat寫入ES 六、indices模塊實(shí)現(xiàn)多個input寫入不同

    2024年02月05日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包