国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【Ubuntu】簡潔高效企業(yè)級日志平臺后起之秀Graylog

這篇具有很好參考價值的文章主要介紹了【Ubuntu】簡潔高效企業(yè)級日志平臺后起之秀Graylog。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

簡介

Graylog 是一個用于集中式日志管理的開源平臺。在現代數據驅動的環(huán)境中,我們需要處理來自各種設備、應用程序和操作系統(tǒng)的大量數據。Graylog提供了一種方法來聚合、組織和理解所有這些數據。它的核心功能包括流式標記、實時搜索、儀表板可視化、告警觸發(fā)、內容包快速配置、索引設置、日志發(fā)射器管理和處理管道。

  1. 流(Streams):流作為對傳入消息進行標記的方法。它可以實時將消息路由到不同的類別,并使用規(guī)則指示Graylog將消息路由到適當的流中。

  2. 搜索(Search):Graylog提供了一個搜索頁面,可以直接搜索日志。使用類似于Lucene的簡化語法,用戶可以從下拉菜單中配置相對或絕對的時間范圍。搜索結果可以保存,也可以作為儀表板小部件進行可視化,從搜索界面直接添加到儀表板中。

  3. 儀表板(Dashboards):儀表板是對日志事件中包含的信息進行可視化或摘要的方式。每個儀表板由一個或多個小部件組成,通過使用字段值生成數據來可視化或摘要事件日志數據,如計數、平均值或總數。用戶可以創(chuàng)建指標、圖表、圖形和地圖來更直觀地呈現數據。

  4. 告警(Alerts):通過事件定義和條件創(chuàng)建告警。當特定條件滿足時,將其存儲為事件,并觸發(fā)通知。

  5. 內容包(Content Packs):內容包可以加速特定數據源的設置過程。它可以包含輸入/提取器、流、儀表板、告警和處理管道。例如,用戶可以為支持安全用例創(chuàng)建自定義輸入、流、儀表板和告警。然后,將內容包導出,并在新安裝的Graylog實例上導入,以便節(jié)省配置時間和工作量。

  6. 索引(Indexes):索引是OpenSearch和Elasticsearch中存儲數據的基本單位。索引集提供了保留、分片和復制等存儲數據的配置選項。通過在每個索引上設置值,如保留和輪換策略,可以對不同的數據應用不同的處理規(guī)則。

  7. Graylog Sidecar:Graylog Sidecar是一種管理日志發(fā)射器(如Beats或NXLog)的代理工具。這些日志發(fā)射器用于收集Linux和Windows服務器的操作系統(tǒng)日志。日志發(fā)射器讀取本地日志文件,然后將其發(fā)送到集中式日志管理解決方案。Graylog支持管理任何日志發(fā)射器作為后端。

  8. 處理管道(Processing Pipelines):Graylog的處理管道允許用戶對特定類型的事件運行規(guī)則或一系列規(guī)則。通過與流關聯,管道可實現消息的路由、拒絕列表、修改和豐富,提高數據處理的靈活性。

通過這些核心功能,Graylog提供了強大而靈活的工具來幫助用戶收集、解析和分析日志數據,從而發(fā)現問題并做出相應決策。無論是小型企業(yè)還是大型組織,Graylog都為日志管理提供了全面可靠的解決方案。

Graylog最簡架構

Graylog基于把日志存儲在數據節(jié)點、使用Elasticsearch或OpenSearch作為搜索引擎來提供強大的日志管理和分析功能。

  • Graylog服務器
    Graylog服務器是Graylog架構中的核心組件,它通過與數據節(jié)點交互,為用戶提供一個簡化的數據訪問和搜索接口。用戶可以通過Graylog服務器提交搜索查詢,而無需直接與數據節(jié)點進行交互,從而極大地簡化了數據的訪問和處理過程。
  • 數據節(jié)點
    日志數據存儲在數據節(jié)點中,其中可以使用Elasticsearch或OpenSearch作為存儲引擎。這兩個開源搜索引擎具備強大的索引和搜索能力,使用戶能夠高效地查詢和分析大量的日志數據。Graylog 5.1僅支持Elasticsearch的7.10.2版本!我們建議您使用OpenSearch 2.5作為數據節(jié)點以支持Graylog 5.1。
  • MongoDB
    MongoDB用于存儲元數據,如用戶信息和流配置。這些數據并不包含實際的日志數據,因此對系統(tǒng)性能影響較小。MongoDB運行在Graylog服務器進程旁邊,占用的磁盤空間很小。
    【Ubuntu】簡潔高效企業(yè)級日志平臺后起之秀Graylog,Ubuntu,Linux,ubuntu,graylog,數據庫

之前的文章中【Graylog之最小化部署安裝(Ubuntu 22.04)】有介紹如何在Ubuntu 22.04上最小化安裝Graylog,這次我們換成在Docker中最小化來部署Garylog,同時我們也將原來的Elasticsearch換成了OpenSearch。

部署

主機設置

在啟動 OpenSearch 之前,您應該查看一些重要的系統(tǒng)設置,這些設置可以影響服務的性能。

  • 關閉主機上的內存分頁和交換以提高性能。
 sudo swapoff -a
  • 增加 OpenSearch 可用的內存映射數量。
# 檢查 sysctl.conf 文件中是否已經存在 vm.max_map_count 設置
if grep -q "vm.max_map_count" /etc/sysctl.conf; then
    # 如果已存在設置,則使用 sed 命令將其修改為 262144
    sudo sed -i 's/vm.max_map_count.*/vm.max_map_count=262144/' /etc/sysctl.conf
else
    # 如果不存在設置,則在文件末尾添加新的設置
    echo "vm.max_map_count=262144" | sudo tee -a /etc/sysctl.conf
fi

# 重新加載內核參數
sudo sysctl -p

# 通過檢查值來驗證更改是否已應用
cat /proc/sys/vm/max_map_count

拉取如下三個鏡像

docker pull mongo
docker pull opensearchproject/opensearch:latest
docker pull graylog/graylog:5.1

編輯Docker Compose文件并啟動

version: '3'
services:
  mongo:
    image: mongo
    restart: always
    volumes:
      - mongo_data:/data/db
    networks:
      - graylog-net
  opensearch:
    image: opensearchproject/opensearch:latest
    restart: always
    environment:
      - cluster.name=graylog
      - node.name=opensearch
      - discovery.type=single-node
      - network.host=0.0.0.0
      - action.auto_create_index=false
      - plugins.security.disabled=true
      - "OPENSEARCH_JAVA_OPTS=-Xms1g -Xmx1g"
    ulimits:
      memlock:
        soft: -1
        hard: -1
      nofile:
        soft: 65536
        hard: 65536
    volumes:
      - opensearch_data:/usr/share/opensearch/data
    networks:
      - graylog-net
  graylog:
      image: graylog/graylog:5.1
      restart: always
      environment:
       - GRAYLOG_PASSWORD_SECRET=GrayLog@12345678
       - GRAYLOG_ROOT_PASSWORD_SHA2=8c6976e5b5410415bde908bd4dee15dfb167a9c873fc4bb8a81f6f2ab448a918
       - GRAYLOG_HTTP_EXTERNAL_URI=http://127.0.0.1:9000/
       - GRAYLOG_TRANSPORT_EMAIL_ENABLED=true
       - GRAYLOG_TRANSPORT_EMAIL_HOSTNAME=smtp.tech.com
       - GRAYLOG_TRANSPORT_EMAIL_PORT=25
       - GRAYLOG_TRANSPORT_EMAIL_USE_AUTH=false
       - GRAYLOG_TRANSPORT_EMAIL_USE_TLS=false
       - GRAYLOG_TRANSPORT_EMAIL_USE_SSL=false
       - GRAYLOG_ELASTICSEARCH_HOSTS=http://opensearch:9200
       - GRAYLOG_ROOT_TIMEZONE=Asia/Shanghai
      entrypoint: /usr/bin/tini -- wait-for-it opensearch:9200 --  /docker-entrypoint.sh
      networks:
        - graylog-net
      depends_on:
        - mongo
        - opensearch
      ports:
       - 9000:9000
       - 1514:1514
       - 1514:1514/udp
       - 2055:2055
      volumes:
       - graylog_data:/usr/share/graylog/data
       - /etc/timezone:/etc/timezone
       - /etc/localtime:/etc/localtime
volumes:
  mongo_data:
    driver: local
  opensearch_data:
    driver: local
  graylog_data:
    driver: local
networks:
  graylog-net:

以上主要定義了三個服務:MongoDB、OpenSearch和Graylog,并設置了它們的相關配置。
MongoDB服務使用mongo鏡像,設置了持續(xù)重啟(restart: always)。它將/data/db目錄掛載為mongo_data卷,并與graylog-net網絡關聯。
OpenSearch服務使用opensearchproject/opensearch:latest鏡像,同樣設置了持續(xù)重啟。它定義了一系列環(huán)境變量用于配置OpenSearch,包括集群名稱、節(jié)點名稱、發(fā)現類型、網絡主機、禁用安全插件等等。此外,還設置了內存鎖定和文件打開限制等系統(tǒng)限制。/usr/share/opensearch/data目錄被掛載為opensearch_data卷,并與graylog-net網絡關聯。
Graylog服務使用graylog/graylog:5.1鏡像,同樣設置了持續(xù)重啟。它定義了一系列環(huán)境變量來配置Graylog,包括密碼密鑰、根密碼哈希、HTTP外部URI、電子郵件傳輸配置、OpenSearch主機等等。入口點是/usr/bin/tini -- wait-for-it opensearch:9200 -- /docker-entrypoint.sh,它在啟動Graylog之前將等待OpenSearch服務就緒。Graylog服務與graylog-net網絡關聯,并依賴于MongoDB和OpenSearch服務。端口映射包括9000用于Web界面、1514和2055用于接收日志數據。關于Graylog的一系列環(huán)境變量都可以通過環(huán)境變量進行設置。只需將參數名稱以GRAYLOG_為前綴,并全部使用大寫字母。具體配置參考【service.conf】。

另外,該docker-compose.yml文件定義了三個卷:mongo_data、opensearch_datagraylog_data,它們分別用于持久化存儲MongoDB、OpenSearch和Graylog的數據。
最后,定義了一個名為graylog-net的網絡,用于連接MongoDB、OpenSearch和Graylog服務。
請注意,您需要根據您自己的配置和需求進行適當的更改,例如更改密碼、主機名、網絡配置等。保存并命名為docker-compose.yml文件,然后在包含該文件的目錄中運行以下命令啟動這三個服務:

docker-compose up -d

這將啟動MongoDB、OpenSearch和Graylog服務,并您可以通過訪問http://hostip:9000/來訪問Graylog的Web界面。以上YML文件中定義的默認用戶名密碼為 admin/admin
【Ubuntu】簡潔高效企業(yè)級日志平臺后起之秀Graylog,Ubuntu,Linux,ubuntu,graylog,數據庫

Reference:
[1] https://opensearch.org/docs/latest/install-and-configure/install-opensearch/docker/
[2] https://go2docs.graylog.org/5-0/setting_up_graylog/server.conf.html
[3] https://www.joda.org/joda-time/timezones.html
[4] https://go2docs.graylog.org/5-1/downloading_and_installing_graylog/docker_installation.htm
[5] https://hub.docker.com/r/graylog/graylog
[6] https://hub.docker.com/r/opensearchproject/opensearch
[7] https://hub.docker.com/_/mongo文章來源地址http://www.zghlxwxcb.cn/news/detail-652891.html

到了這里,關于【Ubuntu】簡潔高效企業(yè)級日志平臺后起之秀Graylog的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • ELK 企業(yè)級日志分析系統(tǒng)(三)

    ELK 企業(yè)級日志分析系統(tǒng)(三)

    定義: zookeeper是一個開源的分布式的,為分布式框架提供協(xié)調服務的Apache項目 工作機制: zookeeper從設計模式角度來理解:是以一個基于觀察者模式設計的分布式服務管理框架,它復習存儲和管理大家都關心的數據,然后接受觀察者的注冊,一旦這些數據的狀態(tài)發(fā)生改變,

    2024年02月15日
    瀏覽(25)
  • ELK 企業(yè)級日志分析系統(tǒng)(四)

    ELK 企業(yè)級日志分析系統(tǒng)(四)

    1.下載安裝包 官方下載地址:http://kafka.apache.org/downloads.html cd /opt wget https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/2.7.1/kafka_2.13-2.7.1.tgz 2.安裝 Kafka cd /opt/ tar zxvf kafka_2.13-2.7.1.tgz mv kafka_2.13-2.7.1 /usr/local/kafka //修改配置文件 cd /usr/local/kafka/config/ cp server.properties{,.bak} vim server.properties br

    2024年02月16日
    瀏覽(23)
  • ELK 企業(yè)級日志分析系統(tǒng)(一)

    ELK 企業(yè)級日志分析系統(tǒng)(一)

    服務器數量較少時 使用 rsyslog 或 腳本 收集、分割日志,統(tǒng)一匯總到專門存放日志的日志服務器保存管理。 (查看日志可把需要的日志文件傳輸到 windows 主機上,使用專業(yè)的文本工具打開分析日志) 服務器數量較多時 使用 ELK 收集日志,存儲日志,展示日志。 日志主要包括

    2024年02月16日
    瀏覽(28)
  • [ELK] ELK企業(yè)級日志分析系統(tǒng)

    [ELK] ELK企業(yè)級日志分析系統(tǒng)

    1.1?ELK 簡介與組件 ELK平臺是一套完整的日志集中處理解決方案,將 ElasticSearch、Logstash 和 Kiabana 三個開源工具配合使用, 完成更強大的用戶對日志的查詢、排序、統(tǒng)計需求。 ●ElasticSearch:是基于Lucene(一個全文檢索引擎的架構)開發(fā)的分布式存儲檢索引擎,用來存儲各類日

    2024年01月21日
    瀏覽(37)
  • ELK 企業(yè)級日志分析系統(tǒng) ELFK

    ELK 企業(yè)級日志分析系統(tǒng) ELFK

    ELK平臺是一套完整的日志集中處理解決方案,將?ElasticSearch、Logstash 和 Kiabana 三個開源工具配合使用, 完成更強大的用戶對日志的查詢、排序、統(tǒng)計需求。 使用ELK日志文件系統(tǒng)的原因:日志主要包括系統(tǒng)日志、應用程序日志和安全日志。系統(tǒng)運維和開發(fā)人員可以通過日志了

    2024年02月07日
    瀏覽(23)
  • ELK 企業(yè)級日志分析系統(tǒng) 簡單介紹

    ELK 企業(yè)級日志分析系統(tǒng) 簡單介紹

    目錄 一? ? ?ELK 簡介 1,?elk?是什么 2,elk?架構圖 3,elk?日志處理步驟 二? ??Elasticsearch?簡介 1,?Elasticsearch?是什么 2,?Elasticsearch 的核心概念 3,?Elasticsearch?的原理 三? ? ?Logstash 1,?Logstash?是什么 2,Logstash?架構圖 四,Logstash?的代替品? 1,Filebeat 1.1,為什么Logs

    2024年04月13日
    瀏覽(44)
  • DAY 74 ELK企業(yè)級日志分析系統(tǒng)

    DAY 74 ELK企業(yè)級日志分析系統(tǒng)

    ELK平臺是一套完整的日志集中處理解決方案,將 ElasticSearch、Logstash 和 Kiabana 三個開源工具配合使用, 完成更強大的用戶對日志的查詢、排序、統(tǒng)計需求 ElasticSearch: 是基于Lucene(一個全文檢索引擎的架構)開發(fā)的分布式存儲檢索引擎,用來存儲各類日志。 Elasticsearch 是用

    2024年02月09日
    瀏覽(23)
  • 分布式ELK 企業(yè)級日志分析系統(tǒng)

    分布式ELK 企業(yè)級日志分析系統(tǒng)

    ELK平臺是一套完整的日志集中處理解決方案,將 ElasticSearch、Logstash 和 Kiabana 三個開源工具配合使用, 完成更強大的用戶對日志的查詢、排序、統(tǒng)計需求。 ElasticSearch :是基于Lucene(一個全文檢索引擎的架構)開發(fā)的分布式存儲檢索引擎,用來存儲各類日志。Elasticsearch 是用

    2024年02月16日
    瀏覽(23)
  • ELK、ELKF企業(yè)級日志分析系統(tǒng)介紹

    ELK、ELKF企業(yè)級日志分析系統(tǒng)介紹

    ?前言 隨著企業(yè)級應用系統(tǒng)日益復雜,隨之產生的海量日志數據。傳統(tǒng)的日志管理和分析手段,難以做到高效檢索、實時監(jiān)控以及深度挖掘潛在價值。在此背景下,ELK日志分析系統(tǒng)應運而生。\\\"Elastic\\\" 是指 Elastic 公司所提供的一系列與搜索、日志分析和數據可視化相關的產品。

    2024年04月15日
    瀏覽(37)
  • 【分布式應用】ELK企業(yè)級日志分析系統(tǒng)

    【分布式應用】ELK企業(yè)級日志分析系統(tǒng)

    目錄 一、ELK 簡介 1.1 ELK各組件介紹 ElasticSearch: Kiabana: Logstash: 1.2 可以添加的其它組件: Filebeat: 緩存/消息隊列(redis、kafka、RabbitMQ等): Fluentd: 1.3 ELK、ELFK、EFLKL 二、為什么要使用 ELK 三、完整日志系統(tǒng)基本特征 四、ELK 的工作原理 五、ELK集群部署 實驗環(huán)境: 實驗步

    2024年02月14日
    瀏覽(56)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包