国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

使用Filebeat收集并分析nginx的訪問(wèn)日志

這篇具有很好參考價(jià)值的文章主要介紹了使用Filebeat收集并分析nginx的訪問(wèn)日志。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

之前我們已經(jīng)搞定了nginx+keepalived雙機(jī),花了一個(gè)多星期時(shí)間把業(yè)務(wù)都遷移過(guò)來(lái)之后,基本穩(wěn)定,中間還遇到一次意外宕機(jī),keepalived也順利做了主備切換,接下來(lái)就要做日志分析了。

日志分析,本身從等保的要求就是需要日志第三方存儲(chǔ)的,另外就是日志也是分析訪問(wèn)量的一個(gè)重要依據(jù),比如網(wǎng)站訪問(wèn)量、比如從錯(cuò)誤日志中分析數(shù)據(jù),等等。

nginx反代作為集中發(fā)布的平臺(tái),首先已經(jīng)能夠很完善的收集到數(shù)據(jù)了(否則你是拿不到分散在各個(gè)業(yè)務(wù)系統(tǒng)上的weblog的),接下來(lái),就是轉(zhuǎn)發(fā)和分析,這里就用elasticsearch來(lái)做了,畢竟平臺(tái)之前已經(jīng)搞定了。

因?yàn)槭羌兾谋救罩?,這里我們就是用es的Filebeat組件直接轉(zhuǎn)發(fā)給es,這是一個(gè)輕量的日志收集工具,也就省得再去轉(zhuǎn)syslog,或者轉(zhuǎn)logstash、kafka之類的,畢竟咱的數(shù)據(jù)量也不大。

安裝Filebeat

CentOS 7

curl -L -O https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.16.3-x86_64.rpm
sudo rpm -vi filebeat-7.16.3-x86_64.rpm

配置Filebeat

創(chuàng)建elasticsearch的連接密碼

這樣就不用再filebeat的配置文件里寫入明文密碼了。此時(shí)鑰匙串的名字就叫做password

filebeat keystore create
filebeat keystore add password
filebeat keystore list

啟用nginx module

  • filebeat modules enable nginx
  • filebeat modules list
  • 其實(shí)就是把nginx模塊的配置文件的disable去掉了
  • 配置文件參考如下
- module: nginx
  access:
    enabled: true
    #注意日志的格式,是數(shù)組形式
    var.paths: ["/var/log/nginx/access.log"]
  error:
    enabled: true
    var.paths: ["/var/log/nginx/error.log"]
  ingress_controller:
    enabled: false

調(diào)整nginx日志格式

nginx的默認(rèn)日志格式其實(shí)已經(jīng)夠用了,如下:

    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';

唯一有個(gè)問(wèn)題就是缺少了主機(jī)名這個(gè)選項(xiàng),所以我們要加一條$host進(jìn)去。如下:

    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" "$host"'
                      '"$http_user_agent" "$http_x_forwarded_for"';

$host變量我加在了第二行,不知道為啥加在最后一行不生效。$host在這里指的是http請(qǐng)求的主機(jī)頭,如果$hostname那就變成nginx主機(jī)的名字了

測(cè)試并運(yùn)行filebeat

  • 使用filebeat test config -e可以測(cè)試配置文件
  • 使用filebeat -e可以運(yùn)行filebeat,會(huì)同時(shí)輸出日志。
  • 當(dāng)然如果確定沒問(wèn)題還是用systemctl start filebeat更好一點(diǎn)

如果提示

2023-01-18T15:40:10.917+0800  INFO  [publisher_pipeline_output]  pipeline/output.go:151  Connection to backoff(elasticsearch(http://192.168.0.1:9200)) established

說(shuō)明已經(jīng)成功連接上elastic

基本完成

至此,在Kibana儀表板中已經(jīng)可以看到一些基礎(chǔ)數(shù)據(jù)了

使用Filebeat收集并分析nginx的訪問(wèn)日志

重新讀取文件

如果需要重新讀取filebeat文件,需要?jiǎng)h除掉/var/lib/filebeat/registry/filebeat下的xxx.json文件,它記錄了讀取位置

在Kibana中查看

  • 打開Kibana,找到Analytics下的Dashboard
  • 找到[Filebeat Nginx] Overview ECS這個(gè)Dashboard,順利的話你已經(jīng)看到所有的數(shù)據(jù)了。
  • 但我們還有一些需要優(yōu)化的
  • 首先是它讀取的是filebeat-7.16.3-這個(gè)默認(rèn)的模板,所以如果你有多個(gè)nginx傳輸數(shù)據(jù)的話,那么就需要優(yōu)化下(知道為啥要logstash多此一舉了吧?)
  • 點(diǎn)這里的篩選,字段用agent.id或者host.id識(shí)別一下就可以了
  • 然后這里缺少了一個(gè)最重要的,按站點(diǎn)統(tǒng)計(jì)點(diǎn)擊率,這時(shí)候我們之前添加的日志字段就有效果了
  • 我們編輯Dashboard,創(chuàng)建可視化, 創(chuàng)建一個(gè)隨便什么圖,比如垂直堆積條形圖
  • 水平選擇計(jì)數(shù),起個(gè)名字叫做點(diǎn)擊率。也就是每條日志算一次。
  • 垂直起個(gè)名字叫做排行,字段選擇traefik.access.user_agent.original 。啥,你問(wèn)我他哪來(lái)的?你找一個(gè)日志看看不就知道了…??,看,就是這個(gè)
    使用Filebeat收集并分析nginx的訪問(wèn)日志
    使用Filebeat收集并分析nginx的訪問(wèn)日志

其他

只查看數(shù)據(jù)

  • 打開Kibana的Discover,索引模式選擇filebeat-*

ilm策略

默認(rèn)filebeat的nginx模塊寫入了filebeat-7.16.3-2023.01.06-000011 這樣的一個(gè)index。如果需要修改文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-432717.html

Ref

  • https://blog.51cto.com/jiangxl/4654145
  • https://blog.csdn.net/UbuntuTouch/article/details/101604717
  • https://www.elastic.co/guide/en/beats/filebeat/master//exported-fields-traefik.html#exported-fields-traefik

到了這里,關(guān)于使用Filebeat收集并分析nginx的訪問(wèn)日志的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 基于Elasticsearch+Logstash+Kibana+Filebeat的日志收集分析及可視化

    基于Elasticsearch+Logstash+Kibana+Filebeat的日志收集分析及可視化

    sudo rm /var/lib/dpkg/lock* sudo dpkg --configure -a apt update tail -f /var/log/car.log 海量的業(yè)務(wù)應(yīng)用,也帶來(lái)了海量的日志數(shù)據(jù),給業(yè)務(wù)應(yīng)用的運(yùn)維帶來(lái)了新的挑戰(zhàn)。例如,我們常用的網(wǎng)約車應(yīng)用,單個(gè)平臺(tái)的日訂單數(shù)量可以達(dá)到上億條,產(chǎn)生各種類型的日志數(shù)據(jù),像用戶業(yè)務(wù)方面會(huì)產(chǎn)生交

    2024年01月21日
    瀏覽(24)
  • ELK實(shí)例----使用filebeat收集tomcat日志到ES并利用kibana展示

    ELK實(shí)例----使用filebeat收集tomcat日志到ES并利用kibana展示

    節(jié)點(diǎn)名稱 節(jié)點(diǎn)名稱 ip地址 kibana kibana 10.0.0.100 elasticsearch elasticsearch 10.0.0.101 filebeat filebeat 10.0.0.102 elasticsearch、Kibana、metricbeat、filebeat版本要一致,如都是7.17.5版本 1.2.1 安裝elasticsearch CPU 2C 內(nèi)存4G或更多 1.2.2 安裝 Kibana 1.2.3 安裝metricbeat 1.2.3 安裝filebeat 1.2.4 安裝Nginx 1.2.5 安裝t

    2024年02月09日
    瀏覽(26)
  • FileBeat-日志收集器

    FileBeat-日志收集器

    ????????在使用一個(gè)工具或者說(shuō)一套組合工具之前要先對(duì)它和它的同類工具進(jìn)行了解選出一個(gè)最適合自己的項(xiàng)目的工具然后進(jìn)行使用,而我使用的就是filebeat 什么是FileBeat ????????Filebeat是一個(gè)開源的文本日志收集器,它是elastic公司Beats數(shù)據(jù)采集產(chǎn)品的一個(gè)子產(chǎn)品,采用

    2023年04月12日
    瀏覽(27)
  • 部署Filebeat收集日志并轉(zhuǎn)發(fā)到Elasticsearch

    部署Filebeat收集日志并轉(zhuǎn)發(fā)到Elasticsearch

    Filebeat用于日志收集和傳輸,相比Logstash更加輕量級(jí)和易部署,對(duì)系統(tǒng)資源開銷更小,如果對(duì)于日志不需要進(jìn)行過(guò)濾分析的,可以直接使用filebeat。 這樣就可以實(shí)現(xiàn)動(dòng)態(tài)收集日志的功能了,但是這樣有一點(diǎn)風(fēng)險(xiǎn),logstash采集本地log4j產(chǎn)生的日志,然后輸入進(jìn)es里,如果吞吐量太大

    2024年02月16日
    瀏覽(49)
  • Elk+Filebeat+Kafka實(shí)現(xiàn)日志收集

    Elk+Filebeat+Kafka實(shí)現(xiàn)日志收集

    1.實(shí)驗(yàn)組件 2.安裝前準(zhǔn)備 3.安裝Zookeeper 1.安裝Kafka 2.命令行測(cè)試 ?1.安裝Filebeat 2.時(shí)間同步 3.配置filebeat 4.配置logstash 1.安裝配置filebeat 2.配置logstash

    2024年02月05日
    瀏覽(28)
  • linux安裝filebeat并收集日志到elasticsearch

    linux安裝filebeat并收集日志到elasticsearch

    通過(guò)filebeat收集服務(wù)器上各個(gè)應(yīng)用的日志到elasticsearch,通過(guò)tags區(qū)分不同的應(yīng)用創(chuàng)建不同的索引保存日志。 https://www.elastic.co/cn/downloads/past-releases#filebeat 1:下載并解壓(以7.9.3版本為例) 2:修改配置文件filebeat.yml filebeat.inputs: - type: log ? enabled: true ? paths: ? ? - /logs/app1*.log ?

    2024年02月01日
    瀏覽(16)
  • Filebeat入門及使用-5 讀取nginx日志,寫入ES,并用kibana展示

    Filebeat入門及使用-5 讀取nginx日志,寫入ES,并用kibana展示

    1 安裝nginx, 并找到nginx的日志目錄,步驟3要使用 2 配置Filebeat的module,在Filebeat中,有大量的module,如mysql,kafka,redis,nginx等,可以簡(jiǎn)化我們的配置,方便使用。 查看Filebeat支持模塊 命令:./filebeat modules list 啟動(dòng)Nginx模塊 啟動(dòng)命令:./filebeat modules enable nginx 禁用命令:./fi

    2023年04月12日
    瀏覽(19)
  • k8s-EFK (filebeat)日志收集

    k8s-EFK (filebeat)日志收集

    使用elasticsearch+filebeat+kibana收集pod指定目錄日志,filebeat用于收集日志,es用于存儲(chǔ),kibana用于展示。本例以收集部署于k8s內(nèi)的nginx日志為例子。 1、部署es+kibana 2.創(chuàng)建filebeat配置文件(基于elasticsearch存儲(chǔ)) 3、創(chuàng)建nginx-filebeat Sidecar(基于elasticsearch的配置) 4.kibana創(chuàng)建索引,查

    2024年02月15日
    瀏覽(24)
  • 搭建EFK(Elasticsearch+Filebeat+Kibana)日志收集系統(tǒng)[windows]

    搭建EFK(Elasticsearch+Filebeat+Kibana)日志收集系統(tǒng)[windows]

    EFK簡(jiǎn)介 Elasticsearch 是一個(gè)實(shí)時(shí)的、分布式的可擴(kuò)展的搜索引擎,允許進(jìn)行全文、結(jié)構(gòu)化搜索,它通常用于索引和搜索大量日志數(shù)據(jù),也可用于搜索許多不同類型的文檔。 FileBeats 是數(shù)據(jù)采集的得力工具。將 Beats 和您的容器一起置于服務(wù)器上,或者將 Beats 作為函數(shù)加以部署,然

    2024年02月08日
    瀏覽(26)
  • 【Elastic (ELK) Stack 實(shí)戰(zhàn)教程】06、Filebeat 日志收集實(shí)踐(下)

    【Elastic (ELK) Stack 實(shí)戰(zhàn)教程】06、Filebeat 日志收集實(shí)踐(下)

    目錄 一、Filebeat 收集 Nginx 日志實(shí)踐 1.1 為什么收集 Nginx 日志 1.2 Nginx 日志收集架構(gòu)圖 1.3 Nginx 日志收集實(shí)踐 1.3.1 安裝 Nginx? 1.3.2 配置 filebeat 1.3.3 kibana 展示 1.4 Nginx json 日志收集實(shí)踐 1.4.1 收集問(wèn)題 1.4.2 解決方案 1.4.3 配置 json 1.4.4 配置 Filebeat 1.4.5 Kibana 展示 1.5 Nginx 多個(gè)日志收

    2024年02月01日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包