国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

springboot集成elk實(shí)現(xiàn)日志采集可視化

這篇具有很好參考價(jià)值的文章主要介紹了springboot集成elk實(shí)現(xiàn)日志采集可視化。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

一、安裝ELK

安裝ELK組件請(qǐng)參考我這篇博客:windows下安裝ELK(踩坑記錄)_windows上安裝elk教程-CSDN博客

這里不再重復(fù)贅述。?

二、編寫(xiě)logstash配置

ELK組件均安裝好并成功啟動(dòng),進(jìn)入到logstash組件下的config文件夾,創(chuàng)建logstash.conf配置文件

springboot集成elk實(shí)現(xiàn)日志采集可視化,spring,elk

logstash.conf的配置如下

input{
? ?tcp{
? ? ? ?port =>9601
? ? ? ?mode => "server"
? ? ? ?tags => ["tags"]
? ? ? ?host => "localhost"
? ? ? ?codec => json_lines
? ?}
}

output{
? ? elasticsearch{
? ? ? ? hosts => ["http://localhost:9200"]
? ? ? ? index => "elk"
? ? }
? ?stdout{
? ? ? ? codec => rubydebug
? ?}
}

三、重新啟動(dòng)ELK組件

1.啟動(dòng)elasticsearch

進(jìn)入的bin目錄下 D:\devSofts\ELK\elasticsearch-8.12.0\bin

雙擊elasticsearch.bat

springboot集成elk實(shí)現(xiàn)日志采集可視化,spring,elk

?2.啟動(dòng)kibana

進(jìn)入bin目錄下?D:\devSofts\ELK\kibana-8.12.0\bin,雙擊kibana.bat

springboot集成elk實(shí)現(xiàn)日志采集可視化,spring,elk

3.啟動(dòng)logstash

cmd進(jìn)入bin目錄

?springboot集成elk實(shí)現(xiàn)日志采集可視化,spring,elk

執(zhí)行命令? logstash.bat -f D:\devSofts\ELK\logstash-8.12.0\config\logstash.conf (后面的路徑根據(jù)自己的安裝位置修改)

springboot集成elk實(shí)現(xiàn)日志采集可視化,spring,elk

四、kibana創(chuàng)建elk索引

打開(kāi)kibana界面

springboot集成elk實(shí)現(xiàn)日志采集可視化,spring,elk

點(diǎn)擊Management

點(diǎn)擊kibana Data Views

springboot集成elk實(shí)現(xiàn)日志采集可視化,spring,elk

springboot集成elk實(shí)現(xiàn)日志采集可視化,spring,elk

創(chuàng)建elk*??

springboot集成elk實(shí)現(xiàn)日志采集可視化,spring,elk

五、創(chuàng)建demo

1.使用idea創(chuàng)建一個(gè)springboot項(xiàng)目,記得勾選spring web

springboot集成elk實(shí)現(xiàn)日志采集可視化,spring,elk

springboot集成elk實(shí)現(xiàn)日志采集可視化,spring,elk

2.引入pom依賴(lài)

<dependency>
    <groupId>org.projectlombok</groupId>
    <artifactId>lombok</artifactId>
    <scope>provided</scope>
</dependency>
<!--集成elk相關(guān)依賴(lài),往elk平臺(tái)輸出日志-->
<dependency>
    <groupId>ch.qos.logback</groupId>
    <artifactId>logback-core</artifactId>
    <version>1.4.12</version>
</dependency>
<dependency>
    <groupId>ch.qos.logback</groupId>
    <artifactId>logback-classic</artifactId>
    <version>1.4.12</version>
</dependency>
<dependency>
    <groupId>ch.qos.logback</groupId>
    <artifactId>logback-access</artifactId>
    <version>1.3.8</version>
</dependency>
<dependency>
    <groupId>net.logstash.logback</groupId>
    <artifactId>logstash-logback-encoder</artifactId>
    <version>7.4</version>
</dependency>

在resources文件夾下添加 logback.xml,內(nèi)容如下

<?xml version="1.0" encoding="UTF-8"?>
<configuration scan="true" scanPeriod="60 seconds" debug="false">
    <!-- 日志存放路徑 -->
    <property name="log.path" value="logs/restful" />
   <!-- 日志輸出格式 -->
    <property name="log.pattern" value="%d{HH:mm:ss.SSS} [%thread] %-5level %logger{20} - [%method,%line] - %msg%n" />

    <!-- 控制臺(tái)輸出 -->
    <appender name="console" class="ch.qos.logback.core.ConsoleAppender">
       <encoder>
          <pattern>${log.pattern}</pattern>
       </encoder>
    </appender>

    <!-- 系統(tǒng)日志輸出 -->
    <appender name="file_info" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <file>${log.path}/info.log</file>
        <!-- 循環(huán)政策:基于時(shí)間創(chuàng)建日志文件 -->
       <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!-- 日志文件名格式 -->
          <fileNamePattern>${log.path}/info.%d{yyyy-MM-dd}.log</fileNamePattern>
          <!-- 日志最大的歷史 60天 -->
          <maxHistory>60</maxHistory>
       </rollingPolicy>
       <encoder>
          <pattern>${log.pattern}</pattern>
       </encoder>
       <filter class="ch.qos.logback.classic.filter.LevelFilter">
            <!-- 過(guò)濾的級(jí)別 -->
            <level>INFO</level>
            <!-- 匹配時(shí)的操作:接收(記錄) -->
            <onMatch>ACCEPT</onMatch>
            <!-- 不匹配時(shí)的操作:拒絕(不記錄) -->
            <onMismatch>DENY</onMismatch>
        </filter>
    </appender>

    <appender name="file_error" class="ch.qos.logback.core.rolling.RollingFileAppender">
        <file>${log.path}/error.log</file>
        <!-- 循環(huán)政策:基于時(shí)間創(chuàng)建日志文件 -->
        <rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy">
            <!-- 日志文件名格式 -->
            <fileNamePattern>${log.path}/error.%d{yyyy-MM-dd}.log</fileNamePattern>
          <!-- 日志最大的歷史 60天 -->
          <maxHistory>60</maxHistory>
        </rollingPolicy>
        <encoder>
            <pattern>${log.pattern}</pattern>
        </encoder>
        <filter class="ch.qos.logback.classic.filter.LevelFilter">
            <!-- 過(guò)濾的級(jí)別 -->
            <level>ERROR</level>
          <!-- 匹配時(shí)的操作:接收(記錄) -->
            <onMatch>ACCEPT</onMatch>
          <!-- 不匹配時(shí)的操作:拒絕(不記錄) -->
            <onMismatch>DENY</onMismatch>
        </filter>
    </appender>

    <!--ELK日志配置-->
    <appender name="LOGSTASH" class="net.logstash.logback.appender.LogstashTcpSocketAppender">
        <destination>localhost:9601</destination>
        <encoder charset="UTF-8" class="net.logstash.logback.encoder.LogstashEncoder">
            <customFields>{"serviceName":"TestApp"}</customFields>
        </encoder>
    </appender>


    <!-- 系統(tǒng)模塊日志級(jí)別控制  -->
    <logger name="prj" level="info" />
    <!-- Spring日志級(jí)別控制  -->
    <logger name="org.springframework" level="warn" />

    <root level="info">
       <appender-ref ref="console" />
    </root>
    
    <!--系統(tǒng)操作日志-->
    <root level="info">
        <appender-ref ref="file_info" />
        <appender-ref ref="file_error" />
        <appender-ref ref="LOGSTASH" />
    </root>
</configuration>

啟動(dòng)服務(wù)后瀏覽器請(qǐng)求http://localhost:8888/hello?

springboot集成elk實(shí)現(xiàn)日志采集可視化,spring,elk

日志收集如下
springboot集成elk實(shí)現(xiàn)日志采集可視化,spring,elk文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-830454.html

到了這里,關(guān)于springboot集成elk實(shí)現(xiàn)日志采集可視化的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀(guān)點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 日志與可視化方案:從ELK到EFK,再到ClickHouse

    日志與可視化方案:從ELK到EFK,再到ClickHouse

    ELK是三個(gè)開(kāi)源軟件的縮寫(xiě),分別表示:Elasticsearch,Logstash,Kibana。新增了一個(gè)FlieBeat,它是一個(gè)輕量級(jí)的日志收集處理工具,F(xiàn)lieBeat占用資源少,適用于在各個(gè)服務(wù)器上搜集日之后,傳輸給Logstash。 Elasticsearch:開(kāi)源分布式搜索引擎,提供搜集,分析,緩存數(shù)據(jù)三大功能,它的

    2024年02月02日
    瀏覽(14)
  • 實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志

    實(shí)戰(zhàn):ELK環(huán)境部署并采集springboot項(xiàng)目日志

    相信作為一個(gè)資深的搬磚人,在處理問(wèn)題的時(shí)候免不了查看應(yīng)用系統(tǒng)日志,且可以根據(jù)這個(gè)日志日志精準(zhǔn)、快速的解決實(shí)際的問(wèn)題。一般情況下我們的系統(tǒng)日志都放置在包的運(yùn)行目錄下面,非常不便于查看和分類(lèi)。那么。今天我們就引入ELK的日志處理架構(gòu)來(lái)解決它。 ELK組成及

    2024年02月17日
    瀏覽(18)
  • springboot集成ELK日志分析平臺(tái)(windows版)

    springboot集成ELK日志分析平臺(tái)(windows版)

    1.elk是什么? 在安裝ELK之前,建議大家先了解一下elk。 ELK 是elastic公司提供的 一套完整的日志收集以及展示的解決方案 ,是三個(gè)產(chǎn)品的首字母縮寫(xiě),分別是ElasticSearch、Logstash 和 Kibana。 ElasticSearch簡(jiǎn)稱(chēng)ES ,它是一個(gè)實(shí)時(shí)的分布式搜索和分析引擎,它可以用于全文搜索,結(jié)構(gòu)化

    2024年02月11日
    瀏覽(20)
  • Elasticsearch基本操作+集成SpringBoot+ELK日志平臺(tái)搭建

    Elasticsearch是一種開(kāi)源的搜索和分析引擎,最初由開(kāi)源搜索引擎Lucene的作者于2010年創(chuàng)建。它提供了一個(gè)可伸縮、高性能的搜索和數(shù)據(jù)分析平臺(tái),可用于多種用途,包括 文本搜索、應(yīng)用程序性能監(jiān)控、業(yè)務(wù)分析、日志聚合 等。 Elasticsearch使用分布式架構(gòu),可以處理大量數(shù)據(jù)并實(shí)

    2024年02月06日
    瀏覽(24)
  • ?數(shù)據(jù)采集和可視化系統(tǒng)實(shí)現(xiàn)

    ?數(shù)據(jù)采集和可視化系統(tǒng)實(shí)現(xiàn)

    前言 本篇博客用來(lái)記錄 2022年春季大數(shù)據(jù)課程結(jié)課大作業(yè)(大三下,前8周,小組作業(yè)) 非常感謝小組同學(xué)的付出和積極配合! 了解Kafka、HDFS、MapReduce、Spark、HBase、Hive等組件在大數(shù)據(jù)體系結(jié)構(gòu)中的角色,并通過(guò)本次綜合實(shí)驗(yàn)對(duì)大數(shù)據(jù)技術(shù)在實(shí)際應(yīng)用中的主要流程有初步的認(rèn)

    2024年02月11日
    瀏覽(43)
  • SpringBoot利用ELK實(shí)現(xiàn)日志收集

    SpringBoot利用ELK實(shí)現(xiàn)日志收集

    ELK是Elasticsearch、Logstash、Kibana他們?nèi)齻€(gè)組合起來(lái)可以搭建日志系統(tǒng),本文主要記錄使 用ELK收集SoringBoot應(yīng)用產(chǎn)生的日志 Elasticsearch:存儲(chǔ)日志信息 Logstash: 日志收集,springboot利用Logstash把日志發(fā)送個(gè)Logstash,然后Logstash將日志傳遞 給Elasticsearch。 Kibana:通過(guò)web端對(duì)日志進(jìn)行可視化操

    2023年04月08日
    瀏覽(24)
  • springboot 集成log4j日志,需要自定義json格式內(nèi)容輸出方便ES采集

    公司需要將服務(wù)遷移到K8S環(huán)境上,由于目前服務(wù)輸出的格式不符合ES進(jìn)行采集的日志格式,所有需要將日志輸出的格式進(jìn)行調(diào)整為JSON格式,方便ES采集 之前是直接配置的輸出格式的message為 \\\"message\\\": %msg\\\" ,但是由于打日志需要打印json內(nèi)容的日志就沒(méi)有進(jìn)行轉(zhuǎn)義導(dǎo)致,整體輸出

    2024年02月12日
    瀏覽(20)
  • ELK 日志采集使用

    ELK 日志采集使用

    Docker 最新版Version 20.10安裝_docker最新版本是多少_猿小飛的博客-CSDN博客 安裝docker compose_猿小飛的博客-CSDN博客 1.3.1.編寫(xiě) docker-compose.yml 腳本啟動(dòng) ELK 服務(wù) 忘記了文件在哪里,可以使用下面命令進(jìn)行查找 ?? 1.3.2.創(chuàng)建對(duì)應(yīng)容器掛載目錄 針對(duì)微服務(wù),我們不同的服務(wù),會(huì)專(zhuān)門(mén)設(shè)置

    2024年02月08日
    瀏覽(14)
  • filebeat->kafka>elk日志采集

    kafka常用命令 查看所有topic ./kafka-topics.sh --zookeeper 10.1.10.163:2181 --list 查看kafka中指定topic的詳情 ./kafka-topics.sh --zookeeper 10.1.10.163:2181 --topic ai_jl_analytic --describe 查看消費(fèi)者consumer的group列表 ./kafka-consumer-groups.sh --bootstrap-server 10.1.10.163:9092 --list 創(chuàng)建topic ./kafka-topics.sh --create --zooke

    2024年02月10日
    瀏覽(25)
  • k8s部署elk+filebeat;springCloud集成elk+filebeat+kafka+zipkin實(shí)現(xiàn)多個(gè)服務(wù)日志鏈路追蹤聚合到es

    k8s部署elk+filebeat;springCloud集成elk+filebeat+kafka+zipkin實(shí)現(xiàn)多個(gè)服務(wù)日志鏈路追蹤聚合到es

    如今2023了,大多數(shù)javaweb架構(gòu)都是springboot微服務(wù),一個(gè)前端功能請(qǐng)求后臺(tái)可能是多個(gè)不同的服務(wù)共同協(xié)做完成的。例如用戶(hù)下單功能,js轉(zhuǎn)發(fā)到后臺(tái) 網(wǎng)關(guān)gateway服務(wù) ,然后到 鑒權(quán)spring-sercurity服務(wù) ,然后到 業(yè)務(wù)訂單服務(wù) ,然后到 支付服務(wù) ,后續(xù)還有發(fā)貨、客戶(hù)標(biāo)簽等等服務(wù)

    2024年02月16日
    瀏覽(27)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包