国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

ELK 企業(yè)級(jí)日志分析系統(tǒng)(二)

這篇具有很好參考價(jià)值的文章主要介紹了ELK 企業(yè)級(jí)日志分析系統(tǒng)(二)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

目錄

ELK Kiabana 部署(在 Node1 節(jié)點(diǎn)上操作)

1.安裝 Kiabana

2.設(shè)置 Kibana 的主配置文件

?3.啟動(dòng) Kibana 服務(wù)

4.驗(yàn)證 Kibana

?5.將 Apache 服務(wù)器的日志(訪問(wèn)的、錯(cuò)誤的)

?添加Elasticsearch 并通過(guò) Kibana 顯示

?Filebeat+ELK 部署

在 filebeat?節(jié)點(diǎn)上操作

2.設(shè)置 filebeat 的主配置文件

?#啟動(dòng) filebeat

4.在 Logstash 組件所在節(jié)點(diǎn)上新建一個(gè) Logstash 配置文件


ELK Kiabana 部署(在 Node1 節(jié)點(diǎn)上操作)

1.安裝 Kiabana


#上傳軟件包 kibana-5.5.1-x86_64.rpm 到/opt目錄
[root@node1 ~]# cd /opt/
[root@node1 opt]# rpm -ivh kibana-5.5.1-x86_64.rpm

2.設(shè)置 Kibana 的主配置文件

vim /etc/kibana/kibana.yml
--2--取消注釋?zhuān)琄iabana 服務(wù)的默認(rèn)監(jiān)聽(tīng)端口為5601
server.port: 5601
--7--取消注釋?zhuān)O(shè)置 Kiabana 的監(jiān)聽(tīng)地址,0.0.0.0代表所有地址
server.host: "0.0.0.0"
--21--取消注釋?zhuān)O(shè)置和 Elasticsearch 建立連接的地址和端口
elasticsearch.url: "http://192.168.10.13:9200" 
--30--取消注釋?zhuān)O(shè)置在 elasticsearch 中添加.kibana索引
kibana.index: ".kibana"

?3.啟動(dòng) Kibana 服務(wù)

systemctl start kibana.service
systemctl enable kibana.service

[root@node1 opt]# netstat -natp | grep 5601
tcp        0      0 0.0.0.0:5601            0.0.0.0:*               LISTEN      100617/node         

4.驗(yàn)證 Kibana

瀏覽器訪問(wèn) http://192.168.158.20:5601
第一次登錄需要添加一個(gè) Elasticsearch 索引:
Index name or pattern
//輸入:system-*			#在索引名中輸入之前配置的 Output 前綴“system”

單擊 “create” 按鈕創(chuàng)建,單擊 “Discover” 按鈕可查看圖表信息及日志信息。
數(shù)據(jù)展示可以分類(lèi)顯示,在“Available Fields”中的“host”,然后單擊 “add”按鈕,可以看到按照“host”篩選后的結(jié)果

ELK 企業(yè)級(jí)日志分析系統(tǒng)(二),elk,linux,運(yùn)維

?5.將 Apache 服務(wù)器的日志(訪問(wèn)的、錯(cuò)誤的)

?添加Elasticsearch 并通過(guò) Kibana 顯示

[root@apache ~]# vim /etc/logstash/conf.d/apache_log.conf
input {
    file{
        path => "/etc/httpd/logs/access_log"
        type => "access"
        start_position => "beginning"
    }
    file{
        path => "/etc/httpd/logs/error_log"
        type => "error"
        start_position => "beginning"
    }
}
output {
    if [type] == "access" {
        elasticsearch {
            hosts => ["192.168.158.20:9200"]
            index => "apache_access-%{+YYYY.MM.dd}"
        }
    }
	if [type] == "error" {
        elasticsearch {
            hosts => ["192.168.158.20:9200"]
            index => "apache_error-%{+YYYY.MM.dd}"
        }
    }
}
[root@apache ~]# cd /etc/logstash/conf.d/
 #啟動(dòng)文件
[root@apache conf.d]# }/usr/share/logstash/bin/logstash -f apache_log.conf
瀏覽器訪問(wèn) http://192.168.158.20:9100 查看索引是否創(chuàng)建

ELK 企業(yè)級(jí)日志分析系統(tǒng)(二),elk,linux,運(yùn)維

瀏覽器訪問(wèn) http://192.168.158.20:5601 登錄 Kibana,單擊“Create Index Pattern”按鈕添加索引, 在索引名中輸入之前配置的 Output 前綴 apache_access-*,并單擊“Create”按鈕。在用相同的方法添加 apache_error-*索引。
選擇“Discover”選項(xiàng)卡,在中間下拉列表中選擇剛添加的 apache_access-* 、apache_error-* 索引, 可以查看相應(yīng)的圖表及日志信息。

ELK 企業(yè)級(jí)日志分析系統(tǒng)(二),elk,linux,運(yùn)維

?Filebeat+ELK 部署

Node1節(jié)點(diǎn)(2C/4G):node1/192.168.158.20					Elasticsearch  Kibana
Node2節(jié)點(diǎn)(2C/4G):node2/192.168.158.21					Elasticsearch
Apache節(jié)點(diǎn):apache/192.168.158.22						Logstash  Apache
Filebeat節(jié)點(diǎn):filebeat/192.168.158.23					Filebeat
[root@node4 ~]# systemctl stop firewalld  #關(guān)閉防火墻
[root@node4 ~]# setenforce 0
[root@node4 ~]# hostnamectl set-hostname filebeat  #改名
[root@node4 ~]# bash
 

在 filebeat?節(jié)點(diǎn)上操作

1.安裝 Filebeat
#上傳軟件包 filebeat-6.2.4-linux-x86_64.tar.gz 到/opt目錄
[root@filebeat opt]# tar zxvf filebeat-6.2.4-linux-x86_64.tar.gz
[root@filebeat opt]# mv filebeat-6.2.4-linux-x86_64/ /usr/local/filebeat

2.設(shè)置 filebeat 的主配置文件

[root@filebeat opt]# cd /usr/local/filebeat/

vim filebeat.yml
filebeat.prospectors:
- type: log         #指定 log 類(lèi)型,從日志文件中讀取消息
  enabled: true
  paths:
    - /var/log/messages       #指定監(jiān)控的日志文件
    - /var/log/*.log
  fields:           #可以使用 fields 配置選項(xiàng)設(shè)置一些參數(shù)字段添加到 output 中
    service_name: filebeat
    log_type: log
    service_id: 192.168.10.16

--------------Elasticsearch output-------------------
(全部注釋掉)

----------------Logstash output---------------------
output.logstash:
  hosts: ["192.168.10.15:5044"]      #指定 logstash 的 IP 和端口

#啟動(dòng) filebeat
./filebeat -e -c filebeat.yml

ELK 企業(yè)級(jí)日志分析系統(tǒng)(二),elk,linux,運(yùn)維

ELK 企業(yè)級(jí)日志分析系統(tǒng)(二),elk,linux,運(yùn)維

?#啟動(dòng) filebeat

[root@filebeat filebeat]# ./filebeat -e -c filebeat.yml

ELK 企業(yè)級(jí)日志分析系統(tǒng)(二),elk,linux,運(yùn)維

4.在 Logstash 組件所在節(jié)點(diǎn)上新建一個(gè) Logstash 配置文件

[root@apache conf.d]# vim logstash.conf

ddvim logstash.conf
input {
    beats {
        port => "5044"
    }
}
output {
    elasticsearch {
        hosts => ["192.168.158.20:9200"]
        index => "%{[fields][service_name]}-%{+YYYY.MM.dd}"
    }
    stdout {
        codec => rubydebug
    }
}


#啟動(dòng) logstash
logstash -f logstash.conf

5.瀏覽器訪問(wèn) http://192.168.10.13:5601 登錄 Kibana,單擊“Create Index Pattern”按鈕添加索引“filebeat-*”,單擊 “create” 按鈕創(chuàng)建,單擊 “Discover” 按鈕可查看圖表信息及日志信息。


ELK 企業(yè)級(jí)日志分析系統(tǒng)(二),elk,linux,運(yùn)維文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-632894.html

到了這里,關(guān)于ELK 企業(yè)級(jí)日志分析系統(tǒng)(二)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • ELK 企業(yè)級(jí)日志分析系統(tǒng)(三)

    ELK 企業(yè)級(jí)日志分析系統(tǒng)(三)

    定義: zookeeper是一個(gè)開(kāi)源的分布式的,為分布式框架提供協(xié)調(diào)服務(wù)的Apache項(xiàng)目 工作機(jī)制: zookeeper從設(shè)計(jì)模式角度來(lái)理解:是以一個(gè)基于觀察者模式設(shè)計(jì)的分布式服務(wù)管理框架,它復(fù)習(xí)存儲(chǔ)和管理大家都關(guān)心的數(shù)據(jù),然后接受觀察者的注冊(cè),一旦這些數(shù)據(jù)的狀態(tài)發(fā)生改變,

    2024年02月15日
    瀏覽(25)
  • ELK 企業(yè)級(jí)日志分析系統(tǒng)(四)

    ELK 企業(yè)級(jí)日志分析系統(tǒng)(四)

    1.下載安裝包 官方下載地址:http://kafka.apache.org/downloads.html cd /opt wget https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.7.1/kafka_2.13-2.7.1.tgz 2.安裝 Kafka cd /opt/ tar zxvf kafka_2.13-2.7.1.tgz mv kafka_2.13-2.7.1 /usr/local/kafka //修改配置文件 cd /usr/local/kafka/config/ cp server.properties{,.bak} vim server.properties br

    2024年02月16日
    瀏覽(23)
  • 【ELK企業(yè)級(jí)日志分析系統(tǒng)】部署Filebeat+ELK詳解

    【ELK企業(yè)級(jí)日志分析系統(tǒng)】部署Filebeat+ELK詳解

    接上文安裝與部署ELK詳解 (1)在Filebeat節(jié)點(diǎn)上,安裝Apache服務(wù) (2)修改Apache服務(wù)的配置文件 (3)開(kāi)啟Apache服務(wù) (4)瀏覽器訪問(wèn),驗(yàn)證Apache服務(wù) (1) 安裝Filebeat (2)設(shè)置filebeat的主配置文件 (3)啟動(dòng)filebeat (4)在Logstash組件所在節(jié)點(diǎn)上,新建一個(gè)Logstash配置文件(CentOS 7-3) (

    2024年02月16日
    瀏覽(29)
  • 【ELK企業(yè)級(jí)日志分析系統(tǒng)】安裝與部署ELK詳解

    【ELK企業(yè)級(jí)日志分析系統(tǒng)】安裝與部署ELK詳解

    ELK平臺(tái)是一套完整的日志集中處理解決方案,將 ElasticSearch、Logstash和kibana三個(gè)開(kāi)源工具配合使用 , 完成更強(qiáng)大的,用戶(hù)對(duì)日志的查詢(xún)、排序、統(tǒng)計(jì)需求。 ElasticSearch ElasticSearch:是基于Lucene(一個(gè) 全文檢索引擎的架構(gòu) )開(kāi)發(fā)的分布式存儲(chǔ)檢索引擎,用來(lái)存儲(chǔ)各類(lèi)日志。 El

    2024年02月16日
    瀏覽(26)
  • ELK 企業(yè)級(jí)日志分析系統(tǒng) 簡(jiǎn)單介紹

    ELK 企業(yè)級(jí)日志分析系統(tǒng) 簡(jiǎn)單介紹

    目錄 一? ? ?ELK 簡(jiǎn)介 1,?elk?是什么 2,elk?架構(gòu)圖 3,elk?日志處理步驟 二? ??Elasticsearch?簡(jiǎn)介 1,?Elasticsearch?是什么 2,?Elasticsearch 的核心概念 3,?Elasticsearch?的原理 三? ? ?Logstash 1,?Logstash?是什么 2,Logstash?架構(gòu)圖 四,Logstash?的代替品? 1,F(xiàn)ilebeat 1.1,為什么Logs

    2024年04月13日
    瀏覽(45)
  • ELK 企業(yè)級(jí)日志分析系統(tǒng) ELFK

    ELK 企業(yè)級(jí)日志分析系統(tǒng) ELFK

    ELK平臺(tái)是一套完整的日志集中處理解決方案,將?ElasticSearch、Logstash 和 Kiabana 三個(gè)開(kāi)源工具配合使用, 完成更強(qiáng)大的用戶(hù)對(duì)日志的查詢(xún)、排序、統(tǒng)計(jì)需求。 使用ELK日志文件系統(tǒng)的原因:日志主要包括系統(tǒng)日志、應(yīng)用程序日志和安全日志。系統(tǒng)運(yùn)維和開(kāi)發(fā)人員可以通過(guò)日志了

    2024年02月07日
    瀏覽(24)
  • ELK 企業(yè)級(jí)日志分析系統(tǒng)的概念、ELK Elasticsearch 集群部署

    ELK 企業(yè)級(jí)日志分析系統(tǒng)的概念、ELK Elasticsearch 集群部署

    1、ELK 簡(jiǎn)介 ELK平臺(tái)是一套完整的日志集中處理解決方案,將 ==ElasticSearch、Logstash 和 Kiabana ==三個(gè)開(kāi)源工具配合使用, 完成更強(qiáng)大的用戶(hù)對(duì)日志的查詢(xún)、排序、統(tǒng)計(jì)需求。 ElasticSearch 是基于Lucene(一個(gè)全文檢索引擎的架構(gòu))開(kāi)發(fā)的分布式存儲(chǔ)檢索引擎,用來(lái)存儲(chǔ)各類(lèi)日志。 E

    2024年02月16日
    瀏覽(55)
  • DAY 74 ELK企業(yè)級(jí)日志分析系統(tǒng)

    DAY 74 ELK企業(yè)級(jí)日志分析系統(tǒng)

    ELK平臺(tái)是一套完整的日志集中處理解決方案,將 ElasticSearch、Logstash 和 Kiabana 三個(gè)開(kāi)源工具配合使用, 完成更強(qiáng)大的用戶(hù)對(duì)日志的查詢(xún)、排序、統(tǒng)計(jì)需求 ElasticSearch: 是基于Lucene(一個(gè)全文檢索引擎的架構(gòu))開(kāi)發(fā)的分布式存儲(chǔ)檢索引擎,用來(lái)存儲(chǔ)各類(lèi)日志。 Elasticsearch 是用

    2024年02月09日
    瀏覽(24)
  • ELK、ELKF企業(yè)級(jí)日志分析系統(tǒng)介紹

    ELK、ELKF企業(yè)級(jí)日志分析系統(tǒng)介紹

    ?前言 隨著企業(yè)級(jí)應(yīng)用系統(tǒng)日益復(fù)雜,隨之產(chǎn)生的海量日志數(shù)據(jù)。傳統(tǒng)的日志管理和分析手段,難以做到高效檢索、實(shí)時(shí)監(jiān)控以及深度挖掘潛在價(jià)值。在此背景下,ELK日志分析系統(tǒng)應(yīng)運(yùn)而生。\\\"Elastic\\\" 是指 Elastic 公司所提供的一系列與搜索、日志分析和數(shù)據(jù)可視化相關(guān)的產(chǎn)品。

    2024年04月15日
    瀏覽(38)
  • 分布式ELK 企業(yè)級(jí)日志分析系統(tǒng)

    分布式ELK 企業(yè)級(jí)日志分析系統(tǒng)

    ELK平臺(tái)是一套完整的日志集中處理解決方案,將 ElasticSearch、Logstash 和 Kiabana 三個(gè)開(kāi)源工具配合使用, 完成更強(qiáng)大的用戶(hù)對(duì)日志的查詢(xún)、排序、統(tǒng)計(jì)需求。 ElasticSearch :是基于Lucene(一個(gè)全文檢索引擎的架構(gòu))開(kāi)發(fā)的分布式存儲(chǔ)檢索引擎,用來(lái)存儲(chǔ)各類(lèi)日志。Elasticsearch 是用

    2024年02月16日
    瀏覽(24)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包