国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

docker搭建最新ELFK分布式日志收集系統(tǒng)(elasticsearch+logstash+filebeats+kibana7.16.1)

這篇具有很好參考價值的文章主要介紹了docker搭建最新ELFK分布式日志收集系統(tǒng)(elasticsearch+logstash+filebeats+kibana7.16.1)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。


前言

隨著分布式項(xiàng)目的集群部署,日志的存儲也分散開來,在日后出現(xiàn)問題進(jìn)行日志定位時就會出現(xiàn)很困難,服務(wù)器很多會做負(fù)載均衡,這樣最終請求所落在的服務(wù)器也隨機(jī)起來,所以好的方式就是集中收集起來,不需要一臺一臺服務(wù)器去查,方便查看。

一、ELFK是什么?

ELFK是Elasticsearch+Logstash+Filebeats+Kibana。
其中,ES是一個高度可擴(kuò)展的全文搜索和分析引擎,能夠?qū)Υ笕萘康臄?shù)據(jù)進(jìn)行接近實(shí)時的存儲、搜索和分析操作,通常會跟Kibana部署在一起,由Kibana提供圖形化的操作功能。LogStash是一個數(shù)據(jù)收集引擎,他可以動態(tài)的從各種數(shù)據(jù)源搜集數(shù)據(jù),并對數(shù)據(jù)進(jìn)行過濾、分析和統(tǒng)一格式等簡單操作,并將輸出結(jié)果存儲到指定位置上。但是LogStash服務(wù)過重,如果在每個應(yīng)用上都部署一個logStash,會給應(yīng)用服務(wù)器增加很大的負(fù)擔(dān)。因此,通常會在應(yīng)用服務(wù)器上,部署輕量級的filebeat組件。filebeat可以持續(xù)穩(wěn)定的收集簡單數(shù)據(jù),比如Log日志,統(tǒng)一發(fā)給logstash進(jìn)行收集后,再經(jīng)過處理存到ES。

二、搭建步驟

1.搭建的機(jī)器環(huán)境背景

我是拿了一臺Centos7的機(jī)器上用docker安裝了Elasticsearch+Logstash+Kibana,因?yàn)槲业囊恍?yīng)用部署的是在windows上,所以就把Filebeats安在了N個windows服務(wù)器上,所以這篇中filebeats安裝是windows,后續(xù)有機(jī)會再更新linux環(huán)境上。

elfk,docker,分布式,elasticsearch

2.安裝docker

3.拉取鏡像

docker pull elasticsearch:7.16.1
docker pull kibana:7.16.1
docker pull logstash:7.16.1

4.創(chuàng)建自定義網(wǎng)絡(luò)

docker network --subnet=172.18.0.0/16 create elk_net
查看創(chuàng)建的網(wǎng)絡(luò)
docker network ls

–subnet 自定義子網(wǎng)掩碼,不同的集群使用不同的網(wǎng)絡(luò),保證集群是健康和安全的

elfk,docker,分布式,elasticsearch

5.配置啟動Elasticsearch

建立下面文件結(jié)構(gòu)并在config下新建elasticsearch.yml

elfk,docker,分布式,elasticsearch
elfk,docker,分布式,elasticsearch

接著啟動es
docker run -it --privileged=true -d -p 9200:9200 -p 9300:9300 --name es --net elk_net --ip 172.18.0.2 -v /mnt/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /mnt/elasticsearch/data:/usr/share/elasticsearch/data -v /mnt/elasticsearch/logs:/usr/share/elasticsearch/logs -e ES_JAVA_OPTS="-Xms512m -Xmx512m" -e "discovery.type=single-node" elasticsearch:7.16.1

-name 取別名
–net 指定網(wǎng)絡(luò)
-ip 指定ip
-v 表示掛載自定義目錄,后續(xù)修改配置可以直接修改該文件進(jìn)行重啟生效。

elfk,docker,分布式,elasticsearch

docker ps -a
查看docker容器鏡像運(yùn)行狀況

6.配置啟動Kibana

建立下面文件結(jié)構(gòu)并在config下新建kibana.yml

elfk,docker,分布式,elasticsearch
elfk,docker,分布式,elasticsearch

啟動kibana
docker run -d --privileged=true --name kibana -p 5601:5601 --net elk_net --ip 172.18.0.4 -v /mnt/kibana/config/kibana.yml:/usr/share/kibana/config/kibana.yml kibana:7.16.1

瀏覽器訪問kibana成功!

elfk,docker,分布式,elasticsearch

7.配置啟動Logstash

建立下面文件結(jié)構(gòu)并在config下
/mnt/logstash/config/pipelines.yml
/mnt/logstash/config/logstash.yml
/mnt/logstash/config/robotwx.conf(收集項(xiàng)目1)
/mnt/logstash/config/robottaskcenter.conf(收集項(xiàng)目2)
/mnt/logstash/config/robotoffice.conf(收集項(xiàng)目3)

elfk,docker,分布式,elasticsearch

/mnt/logstash/config/pipelines.yml
elfk,docker,分布式,elasticsearch

/mnt/logstash/config/logstash.yml
elfk,docker,分布式,elasticsearch

/mnt/logstash/config/robotwx.conf(收集項(xiàng)目1)
elfk,docker,分布式,elasticsearch

/mnt/logstash/config/robottaskcenter.conf(收集項(xiàng)目2)elfk,docker,分布式,elasticsearch

/mnt/logstash/config/robotoffice.conf(收集項(xiàng)目3)
elfk,docker,分布式,elasticsearch

上述配置指的是我有3個收集的項(xiàng)目,一個項(xiàng)目使用一個管道,input 里的port是logstash的監(jiān)聽端口5044,如何在一個端口區(qū)分3個收集項(xiàng)目呢也就是3個filebeat?通過filebeat配置文件中設(shè)置[fields][name]進(jìn)行區(qū)分,下面講filebeat安裝時會說明。
1.一個filebeat對應(yīng)一個pipeline.id和一個path.config。
2.pipelines.yml中的[fields][name]對應(yīng)的是filebeat程序中的配置,path.config對應(yīng)的是robot.conf路徑。*
3.robot.conf中的address對應(yīng)的是pipelines.yml中的output中的send_to。*

配置好filebeats后啟動logstash。

docker run -d -it --privileged=true --name=logstash --net elk_net 
--ip 172.18.0.3 -p 5047:5047  -p 5044:5044 -p 9600:9600 
-v /mnt/logstash/config/:/usr/share/logstash/config 
-v /mnt/nginx/logs/:/usr/share/logs/ logstash:7.16.1

8.配置啟動filebeat(windows)

下載filebeat-7.16.1安裝

elfk,docker,分布式,elasticsearch
在C:\Program Files\Elastic\Beats\7.16.1\filebeat中修改filebeat.yml文件(用收集項(xiàng)目2舉例)

###################### Filebeat Configuration Example #########################

# This file is an example configuration file highlighting only the most common
# options. The filebeat.reference.yml file from the same directory contains all the
# supported options with more comments. You can use it as a reference.
#
# You can find the full configuration reference here:
# https://www.elastic.co/guide/en/beats/filebeat/index.html

# For more available modules and options, please see the filebeat.reference.yml sample
# configuration file.

# ============================== Filebeat inputs ===============================

filebeat.inputs:

# Each - is an input. Most options can be set at the input level, so
# you can use different inputs for various configurations.
# Below are the input specific configurations.

# filestream is an input for collecting log messages from files.
- type: filestream

  # Change to true to enable this input configuration.
  enabled: true

  # Paths that should be crawled and fetched. Glob based paths.
  paths:
      - C:\Users\Administrator\Desktop\wxTest\taskCenter_robot.log
  fields:
      name: robottaskcenter



# ================================== Outputs ===================================

# Configure what output to use when sending the data collected by the beat.

# ------------------------------ Logstash Output -------------------------------
output.logstash:
  # The Logstash hosts
  hosts: ["10.12.2.113:5044"]


type:7.16后統(tǒng)一改成filestream
paths:對應(yīng)你想監(jiān)聽的log文件
fields:name: robottaskcenter對應(yīng)上面所講的
hosts:就是你的logstash啟動端口
其余配置見官網(wǎng)

windows下啟動filebeats
cd C:\Program Files\Elastic\Beats\7.16.1\filebeat
filebeat.exe -c filebeat.yml -e
打印沒有error就是成功了

三、Kibana中建立索引進(jìn)行查看

elfk,docker,分布式,elasticsearch

點(diǎn)擊discover可以看到你創(chuàng)建的索引,刷新就能看到日志了。
elfk,docker,分布式,elasticsearch

總結(jié)

到這就結(jié)束了,logstash+filebeat部署起來確實(shí)費(fèi)了些勁,涉及到對日志的過濾暫時還沒有研究,中間也遇到很多問題記錄一下,有問題的地方可以互相交流指正。文章來源地址http://www.zghlxwxcb.cn/news/detail-719932.html

到了這里,關(guān)于docker搭建最新ELFK分布式日志收集系統(tǒng)(elasticsearch+logstash+filebeats+kibana7.16.1)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • ELK分布式日志收集快速入門-(一)-kafka單體篇

    ELK分布式日志收集快速入門-(一)-kafka單體篇

    JDK 安裝教程自行百度-這個比較簡單。 zookeeper zookeeper安裝參考地址((2條消息) 快速搭建-分布式遠(yuǎn)程調(diào)用框架搭建-dubbo+zookper+springboot demo 演示_康世行的博客-CSDN博客) 修改zookeeper配合文件 啟動成功 開放端口號 下載kafka安裝包 安裝遇到的問題(由于網(wǎng)站證書不安全導(dǎo)致) 解

    2023年04月08日
    瀏覽(25)
  • JAVA微服務(wù)場景下分布式日志收集排查問題實(shí)戰(zhàn)

    JAVA微服務(wù)場景下分布式日志收集排查問題實(shí)戰(zhàn)

    問題產(chǎn)生的根由?不同服務(wù)的日志存在哪里?我們怎么去排查線上問題? 問題場景:我們部署的java服務(wù)可能有幾十個,不同的項(xiàng)目里面他是看不到別的服務(wù)的日志,只有服務(wù)的返回msg消息,相比傳統(tǒng)的單體服務(wù)來說,排查問題和解決問題的原因相對比較復(fù)雜和麻煩,我們傳

    2024年02月02日
    瀏覽(27)
  • 云原生可觀測框架 OpenTelemetry 基礎(chǔ)知識(架構(gòu)/分布式追蹤/指標(biāo)/日志/采樣/收集器)...

    云原生可觀測框架 OpenTelemetry 基礎(chǔ)知識(架構(gòu)/分布式追蹤/指標(biāo)/日志/采樣/收集器)...

    OpenTelemetry 是一個開源的可觀測性框架,由云原生基金會(CNCF)托管。它是 OpenCensus 和 OpenTracing 項(xiàng)目的合并。旨在為所有類型的可觀測信號(如跟蹤、指標(biāo)和日志)提供單一標(biāo)準(zhǔn)。 https://opentelemetry.io https://www.cncf.io https://opencensus.io OpenTelemetry 指定了如何收集遙測數(shù)據(jù)并將其發(fā)送到

    2024年01月16日
    瀏覽(46)
  • 【手記】基于SpringCloud搭建ELK分布式日志追蹤

    【手記】基于SpringCloud搭建ELK分布式日志追蹤

    ELK: 是 Elasticsearch、Logstrash 和 Kibana 的縮寫,它們代表的是一套成熟的日志管理系統(tǒng),ELK Stack已經(jīng)成為目前最流行的集中式日志解決管理方案。 Elasticsearch: 分布式搜索和分析引擎,具有高可伸縮、高可靠和易管理等特點(diǎn)?;?Apache Lucene 構(gòu)建,能對大容量的數(shù)據(jù)進(jìn)行接近實(shí)

    2024年01月16日
    瀏覽(49)
  • Docker搭建MinIo分布式系統(tǒng)

    Docker搭建MinIo分布式系統(tǒng)

    文件系統(tǒng)是負(fù)責(zé)管理和存儲文件的系統(tǒng)軟件,操作系統(tǒng)通過文件系統(tǒng)提供的接口去存取文件,用戶通過操作系統(tǒng)訪問磁盤上的文件。 下圖指示了文件系統(tǒng)所處的位置: 通過概念可以簡單理解為:一個計算機(jī)無法存儲海量的文件,通過網(wǎng)絡(luò)將若干計算機(jī)組織起來共同去存儲海

    2024年02月04日
    瀏覽(22)
  • 基于Docker搭建hdfs分布式實(shí)驗(yàn)環(huán)境

    理論知識 Docker Docker 是一個開源的應(yīng)用容器引擎,基于?Go 語言?并遵從 Apache2.0 協(xié)議開源。Docker 可以讓開發(fā)者打包他們的應(yīng)用以及依賴包到一個輕量級、可移植的容器中,然后發(fā)布到任何流行的 Linux 機(jī)器上,也可以實(shí)現(xiàn)虛擬化。容器是完全使用沙箱機(jī)制,相互之間不會有任

    2023年04月08日
    瀏覽(17)
  • (實(shí)戰(zhàn))docker-compose部署分布式日志方案EFK(Elasticsearch+Fluentd+Kibana)

    (實(shí)戰(zhàn))docker-compose部署分布式日志方案EFK(Elasticsearch+Fluentd+Kibana)

    目錄 背景 技術(shù)架構(gòu) 部署安裝 環(huán)境準(zhǔn)備 配置Logback并模擬產(chǎn)生日志 制作fluentd鏡像 運(yùn)行docker-compose 效果展示 ????????在現(xiàn)代的軟件開發(fā)和運(yùn)維領(lǐng)域,監(jiān)控和日志管理是至關(guān)重要的任務(wù)。隨著應(yīng)用程序規(guī)模的擴(kuò)大和分布式系統(tǒng)的普及,有效地跟蹤和分析日志數(shù)據(jù)成為了挑戰(zhàn)

    2024年02月03日
    瀏覽(16)
  • 使用docker搭建minio分布式對象存儲系統(tǒng)

    使用docker搭建minio分布式對象存儲系統(tǒng)

    這里我簡單的和大家介紹一下什么是minio ? 附上Minio官網(wǎng)鏈接:https://minio.org.cn/ MinIO是一種開源的對象存儲服務(wù)器,通過使用標(biāo)準(zhǔn)的HTTP/REST API來訪問和管理數(shù)據(jù)。它采用分布式架構(gòu),具有高性能、高可用性和可擴(kuò)展性。MinIO可以幫助用戶輕松管理和存儲大量的非結(jié)構(gòu)化數(shù)據(jù),

    2024年02月12日
    瀏覽(23)
  • 基于 Docker 搭建 Hadoop 分布式及 Docker 基本操作使用

    基于 Docker 搭建 Hadoop 分布式及 Docker 基本操作使用

    Docker的整個生命周期有三部分組成:鏡像(image)+容器(container)+倉庫(repository)簡單來講,鏡像是文件,容器是進(jìn)程容器是基于鏡像創(chuàng)建的,即容器中的進(jìn)程依賴于鏡像中的文件,在Docker的生命周期中,最核心的兩個部分,一個是鏡像 (Images),一個是容器 (Containers)。 鏡像

    2024年02月11日
    瀏覽(29)
  • 學(xué)習(xí)筆記MinIo對象存儲-Docker分布式集群搭建踩坑!

    學(xué)習(xí)筆記MinIo對象存儲-Docker分布式集群搭建踩坑!

    ? MinIO 是一款基于Go語言的高性能對象存儲服務(wù),在Github上已有39K+Star。它采用了Apache License v2.0開源協(xié)議,非常適合于存儲大容量非結(jié)構(gòu)化的數(shù)據(jù),例如圖片、視頻、日志文件、備份數(shù)據(jù)和容器/虛擬機(jī)鏡像等。 本文將使用 MinIO 來自建一個對象存儲服務(wù)用于存儲圖片。 ? M

    2024年02月11日
    瀏覽(32)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包