国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Filebeat+Kafka+ELK日志采集(五)——Elasticsearch

這篇具有很好參考價(jià)值的文章主要介紹了Filebeat+Kafka+ELK日志采集(五)——Elasticsearch。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

一、下載、安裝、配置、啟動(dòng):

1、下載

wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-8.3.2-linux-x86_64.tar.gz

2、解壓:

tar -zxvf elasticsearch-8.3.2-linux-x86_64

3、配置
啟動(dòng)Elasticsearch,進(jìn)入/bin目錄下./elasticsearch,不出意外的外會(huì)報(bào)以下錯(cuò)誤:

報(bào)錯(cuò)1:能打開的文件或進(jìn)程數(shù)太低。

max file descriptors [4096] for elasticsearch process is too low, increase to at least [65535]

解決方法:
修改/etc/security/limits.conf 配置文件,添加配置如下:

hard nofile 655360
soft nofile 131072
hard nproc 4096
soft nproc 2048
# nofile - 打開文件的最大數(shù)目
# noproc - 進(jìn)程的最大數(shù)目
# soft 指的是當(dāng)前系統(tǒng)生效的設(shè)置值
# hard 表明系統(tǒng)中所能設(shè)定的最大值

報(bào)錯(cuò)2:

max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]

解決方法:
修改/etc/sysctl.conf 配置文件,添加配置如下:

vm.max_map_count=655360
# 缺省配置下,單個(gè)jvm能開啟的最大線程數(shù)為其一半
fs.file-max=655360
# 設(shè)置 系統(tǒng)所有進(jìn)程一共可以打開的文件數(shù)量

修改完之后執(zhí)行命令:sysctl -p

配置3:

根據(jù)自身主機(jī)內(nèi)存大小設(shè)置es,修改/jvm.options配置文件,太大或太小都可能導(dǎo)致啟動(dòng)失敗

-Xmx2g
-Xms2g

配置4:外網(wǎng)訪問
修改elasticearsh.yml文件:

network.host: 0.0.0.0
# 設(shè)置為自己的ip或0.0.0.0

開放端口號(hào),重啟防火墻:

firewall-cmd --zone=public --add-port=9200/tcp --permanent
firewall-cmd --query-port=9200/tcp
systemctl restart firewalld.service

配置Kibana
同樣下載解壓縮Kibana,打開/config/kibana.yml設(shè)置連接ES信息:

elasticsearch.hosts: ["IP:9200"]
elasticsearch.username: name
elasticsearch.password: password

二、索引生命周期和索引模板

日志信息不可能永久的存儲(chǔ)在ES中,所以需要對(duì)索引進(jìn)行管理,按照采集的日志的保存時(shí)長定期刪除,可通過程序定時(shí)任務(wù)每天檢查到期的索引然后刪除,也可以使用ES的索引生命周期對(duì)索引進(jìn)行管理,使用索引生命周期需結(jié)合綁定索引模板搭配使用。

生命周期策略及索引模板的創(chuàng)建及使用參考文章:ElasticSearch——索引生命周期管理

2.1、創(chuàng)建索引生命周期策略

Filebeat+Kafka+ELK日志采集(五)——Elasticsearch
如上圖所示,只啟用了熱階段和刪除階段,索引建立30天之后刪除。

2.2、創(chuàng)建索引模板

Filebeat+Kafka+ELK日志采集(五)——Elasticsearch
如上圖所示,創(chuàng)建索引模板并關(guān)聯(lián)生命周期策略,設(shè)置索引分片數(shù)量和副本數(shù)量。因?yàn)槲磫⒂脽犭A段的滾動(dòng)更新,所以不用設(shè)置別名。
測試時(shí)可將熱階段到刪除階段過程縮短到幾分鐘,但生命周期策略刷新時(shí)間默認(rèn)是10min,我們?cè)跍y試的時(shí)候可以設(shè)置的短一些,如1min:

PUT _cluster/settings
{
  "transient": {
    "indices.lifecycle.poll_interval": "1min" 
  }
}

Filebeat+Kafka+ELK日志采集(五)——Elasticsearch
如圖所示,新創(chuàng)建的索引根據(jù)索引模板關(guān)聯(lián)上了生命周期策略,30天后進(jìn)入刪除階段進(jìn)行刪除。文章來源地址http://www.zghlxwxcb.cn/news/detail-454426.html

到了這里,關(guān)于Filebeat+Kafka+ELK日志采集(五)——Elasticsearch的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • EFLFK——ELK日志分析系統(tǒng)+kafka+filebeat架構(gòu)

    EFLFK——ELK日志分析系統(tǒng)+kafka+filebeat架構(gòu)

    node1節(jié)點(diǎn) 192.168.40.16 elasticsearch 2c/4G node2節(jié)點(diǎn) 192.168.40.17 elasticsearch 2c/4G Apache節(jié)點(diǎn) 192.168.40.170 logstash/Apache/kibana 2c/4G filebeat節(jié)點(diǎn) 192.168.40.20 filebeat 2c/4G https://blog.csdn.net/m0_57554344/article/details/132059066?spm=1001.2014.3001.5501 接上期elk部署我們這次加一個(gè)filebeat節(jié)點(diǎn) ? //準(zhǔn)備 3 臺(tái)服務(wù)器做

    2024年02月14日
    瀏覽(24)
  • 基于Filebeat、Kafka搭建ELK日志分析平臺(tái)詳細(xì)步驟

    基于Filebeat、Kafka搭建ELK日志分析平臺(tái)詳細(xì)步驟

    寫在前頭:公司一直沒有搭建一個(gè)支持實(shí)時(shí)查詢?nèi)罩镜钠脚_(tái),平??慈罩径嫉萌シ?wù)器下載,大大降低開發(fā)效率,前段時(shí)間有大佬同事搭建了一款日志平臺(tái),支持sit,uat等各個(gè)環(huán)境的日志實(shí)時(shí)查詢,大大提高bug定位速度。因?qū)ζ涓信d趣特向大佬請(qǐng)教,學(xué)習(xí)記錄下搭建流程。 選

    2024年02月06日
    瀏覽(36)
  • filebeat采集日志數(shù)據(jù)到kafka(一)(filebeat->kafka->logstash->es)

    filebeat采集日志數(shù)據(jù)到kafka(一)(filebeat->kafka->logstash->es)

    一、filebeat安裝 filebeat-kafka版本適配 1、安裝包下載 https://www.elastic.co/cn/downloads/past-releases#filebeat 解壓 2、新建yml配置文件,如test.yml 3、Filebeat啟動(dòng)和停止 啟動(dòng):./filebeat -c test.yml 停止:kill -9 PID

    2024年02月16日
    瀏覽(23)
  • docker搭建Elk+Kafka+Filebeat分布式日志收集系統(tǒng)

    docker搭建Elk+Kafka+Filebeat分布式日志收集系統(tǒng)

    目錄 一、介紹 二、集群環(huán)境 三、ES集群 四、Kibana? 五、Logstash 六、Zookeeper 七、Kafka 八、Filebeat 八、Nginx (一)架構(gòu)圖 ?(二)組件介紹 1.Elasticsearch 是一個(gè)基于Lucene的搜索服務(wù)器。提供搜集、分析、存儲(chǔ)數(shù)據(jù)三大功能。它提供了一個(gè)分布式多用戶能力的全文搜索引擎,基于

    2024年02月04日
    瀏覽(26)
  • k8s部署elk+filebeat;springCloud集成elk+filebeat+kafka+zipkin實(shí)現(xiàn)多個(gè)服務(wù)日志鏈路追蹤聚合到es

    k8s部署elk+filebeat;springCloud集成elk+filebeat+kafka+zipkin實(shí)現(xiàn)多個(gè)服務(wù)日志鏈路追蹤聚合到es

    如今2023了,大多數(shù)javaweb架構(gòu)都是springboot微服務(wù),一個(gè)前端功能請(qǐng)求后臺(tái)可能是多個(gè)不同的服務(wù)共同協(xié)做完成的。例如用戶下單功能,js轉(zhuǎn)發(fā)到后臺(tái) 網(wǎng)關(guān)gateway服務(wù) ,然后到 鑒權(quán)spring-sercurity服務(wù) ,然后到 業(yè)務(wù)訂單服務(wù) ,然后到 支付服務(wù) ,后續(xù)還有發(fā)貨、客戶標(biāo)簽等等服務(wù)

    2024年02月16日
    瀏覽(26)
  • ZooKeeper+Kafka+ELK+Filebeat集群搭建實(shí)現(xiàn)大批量日志收集和展示

    ZooKeeper+Kafka+ELK+Filebeat集群搭建實(shí)現(xiàn)大批量日志收集和展示

    大致流程:將nginx 服務(wù)器(web-filebeat)的日志通過filebeat收集之后,存儲(chǔ)到緩存服務(wù)器kafka,之后logstash到kafka服務(wù)器上取出相應(yīng)日志,經(jīng)過處理后寫入到elasticsearch服務(wù)器并在kibana上展示。 一、集群環(huán)境準(zhǔn)備 二、搭建zookeeper集群 前提條件:三臺(tái)機(jī)器分別修改時(shí)區(qū)、關(guān)閉防火墻

    2024年02月04日
    瀏覽(25)
  • ElasticSearch+Kibana+Filebeat 采集日志內(nèi)的json數(shù)據(jù)

    方式有很多,以下是我學(xué)習(xí)中自己寫的。 要被采集的日志: 在ElasticSearch創(chuàng)建pipeline(管道): 在“Kibana-Stack Management-采集管道-創(chuàng)建管道” 或者 在“Kibana-開發(fā)工具-控制臺(tái)”運(yùn)行以下代碼

    2024年02月08日
    瀏覽(20)
  • Kafka數(shù)據(jù)采集至Elasticsearch的Filebeat配置

    Filebeat是一種輕量級(jí)的開源日志數(shù)據(jù)采集器,用于將各種日志數(shù)據(jù)發(fā)送到Elasticsearch等目標(biāo)存儲(chǔ)系統(tǒng)。本文將介紹如何使用Filebeat配置將Kafka中的數(shù)據(jù)采集并發(fā)送至Elasticsearch。 在開始之前,請(qǐng)確保已經(jīng)安裝并配置了Filebeat、Kafka和Elasticsearch。以下是配置的步驟: 配置Filebeat 打開

    2024年02月08日
    瀏覽(29)
  • springboot整合ELK+kafka采集日志

    springboot整合ELK+kafka采集日志

    在分布式的項(xiàng)目中,各功能模塊產(chǎn)生的日志比較分散,同時(shí)為滿足性能要求,同一個(gè)微服務(wù)會(huì)集群化部署,當(dāng)某一次業(yè)務(wù)報(bào)錯(cuò)后,如果不能確定產(chǎn)生的節(jié)點(diǎn),那么只能逐個(gè)節(jié)點(diǎn)去查看日志文件;logback中RollingFileAppender,ConsoleAppender這類同步化記錄器也降低系統(tǒng)性能,綜上一些

    2024年02月15日
    瀏覽(23)
  • 基于Filebeat+Kafka+ELK實(shí)現(xiàn)Nginx日志收集并采用Elastalert2實(shí)現(xiàn)釘釘告警

    基于Filebeat+Kafka+ELK實(shí)現(xiàn)Nginx日志收集并采用Elastalert2實(shí)現(xiàn)釘釘告警

    ???????先準(zhǔn)備3臺(tái)Nginx服務(wù)器,用做后端服務(wù)器,(由于機(jī)器有限,也直接用這三臺(tái)機(jī)器來部署ES集群),然后準(zhǔn)備2臺(tái)服務(wù)器做負(fù)載均衡器(Nginx實(shí)現(xiàn)負(fù)載均衡具體實(shí)現(xiàn)操作有機(jī)會(huì)在介紹),如果是簡單學(xué)習(xí)測試,可以先使用3臺(tái)Nginx服務(wù)器就可以,先告一段落。 3臺(tái)Nginx服務(wù)

    2024年02月15日
    瀏覽(32)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包