国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志

這篇具有很好參考價(jià)值的文章主要介紹了實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

前言

相信作為一個(gè)資深的搬磚人,在處理問題的時(shí)候免不了查看應(yīng)用系統(tǒng)日志,且可以根據(jù)這個(gè)日志日志精準(zhǔn)、快速的解決實(shí)際的問題。一般情況下我們的系統(tǒng)日志都放置在包的運(yùn)行目錄下面,非常不便于查看和分類。那么。今天我們就引入ELK的日志處理架構(gòu)來解決它。
實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志,elk,microservice,docker,elk,spring boot,elasticsearch,logstash,kibana

技術(shù)積累

ELK組成及功能

ELK是logstash、elasticsearch、kibana的簡稱,和其名字一樣,elk架構(gòu)就是將這三個(gè)中間件進(jìn)行整合搭建一個(gè)日志系統(tǒng)。

首先我們應(yīng)用系統(tǒng)集成logstash客戶端并采集日志上傳到logstash服務(wù)端進(jìn)行過濾、轉(zhuǎn)換,轉(zhuǎn)換后的日志寫入elasticsearch,es的強(qiáng)大功能提供數(shù)據(jù)存儲(chǔ),分詞和倒排索引提升查詢效率;最后的kibana直接是渲染日志數(shù)據(jù)的分析和可視化平臺(tái)。

框架搭建基礎(chǔ)

為方便我們架構(gòu)的搭建,我們用docker-compose進(jìn)行容器化編排,只要保存elk三個(gè)組件同網(wǎng)絡(luò)下它們就能夠根據(jù)服務(wù)名進(jìn)行通訊。

當(dāng)然,對(duì)于向外暴露的接口我們僅僅需要暴露logstash的進(jìn)行數(shù)據(jù)上傳,es的進(jìn)行數(shù)據(jù)外部查詢即可。每個(gè)應(yīng)用服務(wù)都必須有自己的logstash配置,在配置中提供輸入、輸出路徑和過濾參數(shù),對(duì)于的端口我們也需要向外暴露以便于數(shù)據(jù)的上傳。

EIK環(huán)境搭建

elk目錄下文件樹:
./
├── docker-compose.yml
├── elasticsearch
│ ├── config
│ │ └── elasticsearch.yml
│ ├── data
│ └── logs
├── kabana
│ └── config
│ └── kabana.yml
└── logstash
├── config
│ ├── logstash.yml
│ └── small-tools
│ └── demo.config
└── data

elasticsearch配置相關(guān)

mkdie elk
#增加es目錄
cd elk
mkdir -p ./elasticsearch/logs ./elasticsearch/data ./elasticsearch/config
chmod 777 ./elasticsearch/data
#./elasticsearch/config 下增加es配置文件
cd elasticsearch/config
vim elasticsearch.yml

cluster.name: "docker-cluster"
network.host: 0.0.0.0
http.port: 9200
# 開啟es跨域
http.cors.enabled: true
http.cors.allow-origin: "*"
http.cors.allow-headers: Authorization
# 開啟安全控制
xpack.security.enabled: true
xpack.security.transport.ssl.enabled: true

kibana配置相關(guān)

cd elk
mkdir -p ./kibana/config
#./kibana/config 下增加kibana配置文件
cd kibana/config
vim kibana.yml

server.name: kibana
server.host: "0.0.0.0"
server.publicBaseUrl: "http://kibana:5601"
elasticsearch.hosts: [ "http://elasticsearch:9200" ] 
xpack.monitoring.ui.container.elasticsearch.enabled: true
elasticsearch.username: "elastic"
elasticsearch.password: "123456"
i18n.locale: zh-CN

logstash配置相關(guān)

cd elk
mkdir -p ./logstash/data ./logstash/config ./logstash/config/small-tools
chmod 777 ./logstash/data
#./logstash/config 下增加logstash配置文件
cd logstash/config
vim logstash.yml

http.host: "0.0.0.0"
xpack.monitoring.enabled: true
xpack.monitoring.elasticsearch.hosts: [ "http://elasticsearch:9200" ]
xpack.monitoring.elasticsearch.username: "elastic"
xpack.monitoring.elasticsearch.password: "123456"

#./logstash/config/small-tools 下增加demo項(xiàng)目監(jiān)控配置文件
cd small-tools
vim demo.config

input { #輸入

    tcp {
        mode => "server"
        host => "0.0.0.0"   # 允許任意主機(jī)發(fā)送日志
        type => "demo"      # 設(shè)定type以區(qū)分每個(gè)輸入源
        port => 9999
        codec => json_lines # 數(shù)據(jù)格式
    }

}


filter {
    mutate {
        # 導(dǎo)入之過濾字段
        remove_field => ["LOG_MAX_HISTORY_DAY", "LOG_HOME", "APP_NAME"]
        remove_field => ["@version", "_score", "port", "level_value", "tags", "_type", "host"]
    }
}


output { #輸出-控制臺(tái)
    stdout{
        codec => rubydebug
    }
}


output { #輸出-es

    if [type] == "demo" {
        elasticsearch {
            action => "index"                       # 輸出時(shí)創(chuàng)建映射
            hosts  => "http://elasticsearch:9200"   # ES地址和端口
            user => "elastic"                       # ES用戶名
            password => "123456"                    # ES密碼
            index  => "demo-%{+YYYY.MM.dd}"         # 指定索引名-按天
            codec  => "json"
        }
    }

}

elk目錄下增加docker-compose文件

docker-compose.yml

version: '3.3'
networks:
  elk:
    driver: bridge
services:
  elasticsearch:
    image: registry.cn-hangzhou.aliyuncs.com/zhengqing/elasticsearch:7.14.1
    container_name: elk_elasticsearch
    restart: unless-stopped
    volumes:
      - "./elasticsearch/data:/usr/share/elasticsearch/data"
      - "./elasticsearch/logs:/usr/share/elasticsearch/logs"
      - "./elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml"
    environment:
      TZ: Asia/Shanghai
      LANG: en_US.UTF-8
      TAKE_FILE_OWNERSHIP: "true"  # 權(quán)限
      discovery.type: single-node
      ES_JAVA_OPTS: "-Xmx512m -Xms512m"
      ELASTIC_PASSWORD: "123456" # elastic賬號(hào)密碼
    ports:
      - "9200:9200"
      - "9300:9300"
    networks:
      - elk

  kibana:
    image: registry.cn-hangzhou.aliyuncs.com/zhengqing/kibana:7.14.1
    container_name: elk_kibana
    restart: unless-stopped
    volumes:
      - "./kibana/config/kibana.yml:/usr/share/kibana/config/kibana.yml"
    ports:
      - "5601:5601"
    depends_on:
      - elasticsearch
    links:
      - elasticsearch
    networks:
      - elk

  logstash:
    image: registry.cn-hangzhou.aliyuncs.com/zhengqing/logstash:7.14.1
    container_name: elk_logstash
    restart: unless-stopped
    environment:
      LS_JAVA_OPTS: "-Xmx512m -Xms512m"
    volumes:
      - "./logstash/data:/usr/share/logstash/data"
      - "./logstash/config/logstash.yml:/usr/share/logstash/config/logstash.yml"
      - "./logstash/config/small-tools:/usr/share/logstash/config/small-tools"
    command: logstash -f /usr/share/logstash/config/small-tools
    ports:
      - "9600:9600"
      - "9999:9999"
    depends_on:
      - elasticsearch
    networks:
      - elk
      

查看elk目錄文件樹

yum -y install tree
#查看當(dāng)前目錄下4層
tree -L 4
#顯示所有文件、文件夾
tree -a
#顯示大小
tree -s

[root@devops-01 elk]# pwd
/home/test/demo/elk
[root@devops-01 elk]# tree ./
./
├── docker-compose.yml
├── elasticsearch
│ ├── config
│ │ └── elasticsearch.yml
│ ├── data
│ └── logs
├── kabana
│ └── config
│ └── kabana.yml
└── logstash
├── config
│ ├── logstash.yml
│ └── small-tools
│ └── demo.config
└── data

10 directories, 5 files

編排elk

docker-compose up -d

編排成功查看容器是否成功啟動(dòng)

[root@devops-01 elk]# docker ps | grep elk

edcf6c1cecb3 registry.cn-hangzhou.aliyuncs.com/zhengqing/kibana:7.14.1 “/bin/tini – /usr/l…” 6 minutes ago Up 10 seconds 0.0.0.0:5601->5601/tcp, :::5601->5601/tcp elk_kibana
7c24b65d2a27 registry.cn-hangzhou.aliyuncs.com/zhengqing/logstash:7.14.1 “/usr/local/bin/dock…” 6 minutes ago Up 13 seconds 5044/tcp, 9600/tcp elk_logstash
b4be2f1c0a28 registry.cn-hangzhou.aliyuncs.com/zhengqing/elasticsearch:7.14.1 “/bin/tini – /usr/l…” 6 minutes ago Up 6 minutes 0.0.0.0:9800->9200/tcp, :::9800->9200/tcp, 0.0.0.0:9900->9300/tcp, :::9900->9300/tcp elk_elasticsearch

編排成功訪問kibana頁面
http://10.10.22.174:5601/app/home#/
實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志,elk,microservice,docker,elk,spring boot,elasticsearch,logstash,kibana

springboot集成logstash

pom.xml

<!--logstash start-->
<dependency>
    <groupId>net.logstash.logback</groupId>
    <artifactId>logstash-logback-encoder</artifactId>
    <version>6.6</version>
</dependency>
<!--logstash end-->

logback-spring.xml

<springProfile  name="uat">
    <appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
        <destination>10.10.22.174:9999</destination>
        <encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder"/>
    </appender>

    <root level="INFO">
        <appender-ref ref="logstash"/>
    </root>
</springProfile>

啟動(dòng)項(xiàng)目logstash采集日志

kibana配置查看日志
http://10.10.22.174:5601/app/home#/ 輸入ES用戶名和密碼進(jìn)入kibana控制臺(tái)
點(diǎn)擊管理按鈕進(jìn)入管理界面
實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志,elk,microservice,docker,elk,spring boot,elasticsearch,logstash,kibana

點(diǎn)擊索引模式進(jìn)入–>創(chuàng)建索引模式
實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志,elk,microservice,docker,elk,spring boot,elasticsearch,logstash,kibana

輸入配置日志表達(dá)式–>點(diǎn)擊下一步
實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志,elk,microservice,docker,elk,spring boot,elasticsearch,logstash,kibana

選擇timestamp -->創(chuàng)建索引模式
實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志,elk,microservice,docker,elk,spring boot,elasticsearch,logstash,kibana

創(chuàng)建完成如下所示代表成功
實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志,elk,microservice,docker,elk,spring boot,elasticsearch,logstash,kibana

查看日志
菜單點(diǎn)擊–>discover
實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志,elk,microservice,docker,elk,spring boot,elasticsearch,logstash,kibana
實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志,elk,microservice,docker,elk,spring boot,elasticsearch,logstash,kibana

寫在最后

ELK環(huán)境部署并采集springboot項(xiàng)目日志還是比較簡單,我們只需要用docker容器化技術(shù)搭建起elk框架,然后在自己的項(xiàng)目中進(jìn)行數(shù)據(jù)采集上傳即可。當(dāng)然對(duì)于elk組成元素的logstash、elasticsearch、kibana還是需要一些基礎(chǔ)的了解,方便在實(shí)戰(zhàn)的時(shí)候進(jìn)行操作。文章來源地址http://www.zghlxwxcb.cn/news/detail-582472.html

到了這里,關(guān)于實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Springboot部署ELK實(shí)戰(zhàn)

    Springboot部署ELK實(shí)戰(zhàn)

    安裝docker 安裝docker-compose 1、構(gòu)建目錄配置文件 按照?qǐng)D中展示的層級(jí)創(chuàng)建目錄以及文件 共創(chuàng)建2個(gè)目錄 kibana、logstash,3個(gè)文件docker-compose.yml、kibana.yml、log-config.conf 1、docker-compose.yml 文檔 2、Kibana.yml 3、log-config.conf 2、添加es分詞器插件 todo 引入插件 3、啟動(dòng) 1、引入依賴 2、修改

    2024年02月14日
    瀏覽(17)
  • 【k8s】【ELK】【zookeeper+kafka+efak】【一】日志環(huán)境部署

    【k8s】【ELK】【zookeeper+kafka+efak】【一】日志環(huán)境部署

    如何收集日志 使用 EFK+Logstash+Kafka 收集K8S哪些日志? 2.1 ES集群的構(gòu)建 demo: 2.2 交付ES-Service 01-es-svc.yaml 2.3 交付ES-Master節(jié)點(diǎn) 2.4交付ES-Data節(jié)點(diǎn) 2.5 驗(yàn)證ES集群 3.1 交付Kibana(dp、svc、ingress) 01-kibana-dp.yam 02-kibana-svc.yam 03-kibana-ingress.yam 3.2 訪問kibana 01-zk-svc.yaml 02-zk-sts.yaml 驗(yàn)證zk集群

    2024年02月07日
    瀏覽(26)
  • ELK 日志采集使用

    ELK 日志采集使用

    Docker 最新版Version 20.10安裝_docker最新版本是多少_猿小飛的博客-CSDN博客 安裝docker compose_猿小飛的博客-CSDN博客 1.3.1.編寫 docker-compose.yml 腳本啟動(dòng) ELK 服務(wù) 忘記了文件在哪里,可以使用下面命令進(jìn)行查找 ?? 1.3.2.創(chuàng)建對(duì)應(yīng)容器掛載目錄 針對(duì)微服務(wù),我們不同的服務(wù),會(huì)專門設(shè)置

    2024年02月08日
    瀏覽(14)
  • filebeat->kafka>elk日志采集

    kafka常用命令 查看所有topic ./kafka-topics.sh --zookeeper 10.1.10.163:2181 --list 查看kafka中指定topic的詳情 ./kafka-topics.sh --zookeeper 10.1.10.163:2181 --topic ai_jl_analytic --describe 查看消費(fèi)者consumer的group列表 ./kafka-consumer-groups.sh --bootstrap-server 10.1.10.163:9092 --list 創(chuàng)建topic ./kafka-topics.sh --create --zooke

    2024年02月10日
    瀏覽(26)
  • Flink日志采集-ELK可視化實(shí)現(xiàn)

    Flink日志采集-ELK可視化實(shí)現(xiàn)

    組件 版本 Flink 1.16.1 kafka 2.0.0 Logstash 6.5.4 Elasticseach 6.3.1 Kibana 6.3.1 ??針對(duì)按照?志?件??滾動(dòng)?成?件的?式,可能因?yàn)槟硞€(gè)錯(cuò)誤的問題,需要看好多個(gè)?志?件,還有Flink on Yarn模式提交Flink任務(wù),在任務(wù)執(zhí)行完畢或者任務(wù)報(bào)錯(cuò)后container會(huì)被回收從而導(dǎo)致日志丟失,為了

    2024年02月05日
    瀏覽(22)
  • Filebeat+Kafka+ELK日志采集(五)——Elasticsearch

    Filebeat+Kafka+ELK日志采集(五)——Elasticsearch

    1、下載 2、解壓: 3、配置 啟動(dòng)Elasticsearch,進(jìn)入/bin目錄下 ./elasticsearch ,不出意外的外會(huì)報(bào)以下錯(cuò)誤: 報(bào)錯(cuò)1:能打開的文件或進(jìn)程數(shù)太低。 解決方法: 修改/etc/security/limits.conf 配置文件,添加配置如下: 報(bào)錯(cuò)2: 解決方法: 修改/etc/sysctl.conf 配置文件,添加配置如下: 修

    2024年02月05日
    瀏覽(26)
  • ELK 日志框架搭建 (springboot 接入 elk)

    ELK 日志框架搭建 (springboot 接入 elk)

    ELK 是一個(gè)開源的實(shí)時(shí)日志分析平臺(tái),它主要由 Elasticsearch、Logstash 和 Kiabana 三部分組成。 Logstash 主要用于收集日志,它是一個(gè)開源數(shù)據(jù)收集引擎,具有實(shí)時(shí)管道功能。Logstash 可以動(dòng)態(tài)地將來自不同數(shù)據(jù)源的數(shù)據(jù)統(tǒng)一起來,并將數(shù)據(jù)標(biāo)準(zhǔn)化到您所選擇的目的地。 Logstash 收集數(shù)

    2023年04月25日
    瀏覽(17)
  • ELK (一)部署ELK+Filebeat日志收集分析系統(tǒng)

    ELK (一)部署ELK+Filebeat日志收集分析系統(tǒng)

    說明:此安裝流程只適用于8.0.0以下的版本 1.1 下載ElasticSearch的wget指令: 1.2 解壓安裝包到指定目錄 指定解壓縮到 /usr/local 目錄下 1.3 修改配置文件 (1)elasticsearch.yml 分別創(chuàng)建 path.data、path.logs 對(duì)應(yīng)的 data、logs文件夾。 詳細(xì)配置: (2)limits.conf 末尾追加以下內(nèi)容: (3)s

    2024年02月08日
    瀏覽(26)
  • 【ELK企業(yè)級(jí)日志分析系統(tǒng)】部署Filebeat+ELK詳解

    【ELK企業(yè)級(jí)日志分析系統(tǒng)】部署Filebeat+ELK詳解

    接上文安裝與部署ELK詳解 (1)在Filebeat節(jié)點(diǎn)上,安裝Apache服務(wù) (2)修改Apache服務(wù)的配置文件 (3)開啟Apache服務(wù) (4)瀏覽器訪問,驗(yàn)證Apache服務(wù) (1) 安裝Filebeat (2)設(shè)置filebeat的主配置文件 (3)啟動(dòng)filebeat (4)在Logstash組件所在節(jié)點(diǎn)上,新建一個(gè)Logstash配置文件(CentOS 7-3) (

    2024年02月16日
    瀏覽(29)
  • 【ELK企業(yè)級(jí)日志分析系統(tǒng)】安裝與部署ELK詳解

    【ELK企業(yè)級(jí)日志分析系統(tǒng)】安裝與部署ELK詳解

    ELK平臺(tái)是一套完整的日志集中處理解決方案,將 ElasticSearch、Logstash和kibana三個(gè)開源工具配合使用 , 完成更強(qiáng)大的,用戶對(duì)日志的查詢、排序、統(tǒng)計(jì)需求。 ElasticSearch ElasticSearch:是基于Lucene(一個(gè) 全文檢索引擎的架構(gòu) )開發(fā)的分布式存儲(chǔ)檢索引擎,用來存儲(chǔ)各類日志。 El

    2024年02月16日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包