国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【大數(shù)據(jù)監(jiān)控】Grafana、Spark、HDFS、YARN、Hbase指標(biāo)性能監(jiān)控安裝部署詳細(xì)文檔

這篇具有很好參考價(jià)值的文章主要介紹了【大數(shù)據(jù)監(jiān)控】Grafana、Spark、HDFS、YARN、Hbase指標(biāo)性能監(jiān)控安裝部署詳細(xì)文檔。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

Grafana

【大數(shù)據(jù)監(jiān)控】Grafana、Spark、HDFS、YARN、Hbase指標(biāo)性能監(jiān)控安裝部署詳細(xì)文檔

簡(jiǎn)介

Grafana 是一款開(kāi)源的數(shù)據(jù)可視化工具,使用 Grafana 可以非常輕松的將數(shù)據(jù)轉(zhuǎn)成圖表(如下圖)的展現(xiàn)形式來(lái)做到數(shù)據(jù)監(jiān)控以及數(shù)據(jù)統(tǒng)計(jì)。

下載軟件包

wget https://dl.grafana.com/enterprise/release/grafana-enterprise-9.1.6.linux-amd64.tar.gz

安裝部署

解壓

tar -xvzf grafana-enterprise-9.1.6.linux-arm64.tar.gz

mv grafana-9.1.6 /data/apps/
cd /data/apps/grafana-9.1.6/conf
cp sample.ini grafana.ini

修改配置文件

vim grafana.ini

[paths]
# Path to where grafana can store temp files, sessions, and the sqlite3 db (if that is used)
;data = /var/lib/grafana
data = /data/apps/grafana-9.1.6/data
logs = /data/apps/grafana-9.1.6/logs
plugins = /data/apps/grafana-9.1.6/plugins

[log]

mode = file
level = warn

創(chuàng)建用戶

groupadd -g 9100 monitor
useradd -g 9100 -u 9100 -s /sbin/nologin -M monitor
mkdir data && mkdir logs && mkdir plugins

chown -R monitor:monitor grafana-9.1.6

創(chuàng)建Systemd服務(wù)

vim /usr/lib/systemd/system/grafana.service

[Unit]
Description=grafana service
After=network.target

[Service]
User=monitor
Group=monitor
KillMode=control-group
Restart=on-failure
RestartSec=60
ExecStart=/data/apps/grafana-9.1.6/bin/grafana-server -config /data/apps/grafana-9.1.6/conf/grafana.ini -pidfile /data/apps/grafana-9.1.6/grafana.pid -homepath /data/apps/grafana-9.1.6

[Install]
WantedBy=multi-user.target

啟動(dòng) Grafana

systemctl daemon-reload
systemctl restart grafana.service
systemctl enable grafana.service
systemctl status grafana

Spark應(yīng)用監(jiān)控 Graphite_exporter

配置 mapping 文件

cd /usr/local/graphite_exporter
vim graphite_exporter_mapping
graphite_exportergraphite_exportengs:
- match: '*.*.executor.filesystem.*.*'
  name: spark_app_filesystem_usage
  labels:
    application: $1
    executor_id: $2
    fs_type: $3
    qty: $4
- match: '*.*.jvm.*.*'
  name: spark_app_jvm_memory_usage
  labels:
    application: $1
    executor_id: $2
    mem_type: $3
    qty: $4
- match: '*.*.executor.jvmGCTime.count'
  name: spark_app_jvm_gcTime_count
  labels:
    application: $1
    executor_id: $2
- match: '*.*.jvm.pools.*.*'
  name: spark_app_jvm_memory_pools
  labels:
    application: $1
    executor_id: $2
    mem_type: $3
    qty: $4
- match: '*.*.executor.threadpool.*'
  name: spark_app_executor_tasks
  labels:
    application: $1
    executor_id: $2
    qty: $3
- match: '*.*.BlockManager.*.*'
  name: spark_app_block_manager
  labels:
    application: $1
    executor_id: $2
    type: $3
    qty: $4
- match: '*.*.DAGScheduler.*.*'
  name: spark_app_dag_scheduler
  labels:
    application: $1
    executor_id: $2
    type: $3
    qty: $4
- match: '*.*.CodeGenerator.*.*'
  name: spark_app_code_generator
  labels:
    application: $1
    executor_id: $2
    type: $3
    qty: $4
- match: '*.*.HiveExternalCatalog.*.*'
  name: spark_app_hive_external_catalog
  labels:
    application: $1
    executor_id: $2
    type: $3
    qty: $4
- match: '*.*.*.StreamingMetrics.*.*'
  name: spark_app_streaming_metrics
  labels:
    application: $1
    executor_id: $2
    app_name: $3
    type: $4
    qty: $5

修改spark的metrics.properties配置文件,讓其推送metrics到Graphite_exporter

*.sink.graphite.class=org.apache.spark.metrics.sink.GraphiteSink
*.sink.graphite.host=10.253.128.31
*.sink.graphite.port=9108
*.sink.graphite.period=10
*.sink.graphite.unit=seconds
#*.sink.graphite.prefix=<optional_value>

HDFS 監(jiān)控

namenode.yaml

---
startDelaySeconds: 0
hostPort: localhost:1234 #master為本機(jī)IP(一般可設(shè)置為localhost);1234為想設(shè)置的jmx端口
#jmxUrl: service:jmx:rmi:///jndi/rmi://127.0.0.1:1234/jmxrmi
ssl: false
lowercaseOutputName: false
lowercaseOutputLabelNames: false

datanode.yaml

---
startDelaySeconds: 0
hostPort: localhost:1244 #master為本機(jī)IP(一般可設(shè)置為localhost);1244為想設(shè)置的jmx端口(可設(shè)置為未被占用的端口)
#jmxUrl: service:jmx:rmi:///jndi/rmi://127.0.0.1:1234/jmxrmi
ssl: false
lowercaseOutputName: false
lowercaseOutputLabelNames: false

配置 hadoop-env.sh

export HADOOP_NAMENODE_JMX_OPTS="-Dcom.sun.management.jmxremote.authenticate=false -Dcom.sun.management.jmxremote.ssl=false -Dcom.sun.management.jmxremote.local.only=false -Dcom.sun.management.jmxremote.port=1234 -javaagent:/jmx_prometheus_javaagent-0.8.jar=9211:/namenode.yaml"

export HADOOP_DATANODE_JMX_OPTS="-Dcom.sun.management.jmxremote.authenticate=false -Dcom.sun.management.jmxremote.ssl=false -Dcom.sun.management.jmxremote.local.only=false -Dcom.sun.management.jmxremote.port=1244 -javaagent:/jmx_prometheus_javaagent-0.8.jar=9212:/datanode.yaml"

YARN 監(jiān)控

yarn.yaml

---
startDelaySeconds: 0
hostPort: localhost:2111 #master為本機(jī)IP(一般可設(shè)置為localhost);1234為想設(shè)置的jmx端口
#jmxUrl: service:jmx:rmi:///jndi/rmi://127.0.0.1:1234/jmxrmi
ssl: false
lowercaseOutputName: false
lowercaseOutputLabelNames: false

配置 yarn-env.sh

export YARN_JMX_OPTS="-Dcom.sun.management.jmxremote.authenticate=false -Dcom.sun.management.jmxremote.ssl=false -Dcom.sun.management.jmxremote.local.only=false -Dcom.sun.management.jmxremote.port=2111 -javaagent:/jmx_prometheus_javaagent-0.8.jar=9323:/yarn.yaml"

HBase 監(jiān)控

master.yaml

---
startDelaySeconds: 0
hostPort: IP:1254 #master為本機(jī)IP(一般可設(shè)置為localhost);1234為想設(shè)置的jmx端口(可設(shè)
#jmxUrl: service:jmx:rmi:///jndi/rmi://127.0.0.1:1234/jmxrmi
ssl: false
lowercaseOutputName: false
lowercaseOutputLabelNames: false

regionserver.yaml

---
startDelaySeconds: 0
hostPort: IP:1255 #master為本機(jī)IP(一般可設(shè)置為localhost);1234為想設(shè)置的jmx端口
#jmxUrl: service:jmx:rmi:///jndi/rmi://127.0.0.1:1234/jmxrmi
ssl: false
lowercaseOutputName: false
lowercaseOutputLabelNames: false

配置 hbase-env.sh

HBASE_M_JMX_OPTS="-Dcom.sun.management.jmxremote.authenticate=false -Dcom.sun.management.jmxremote.ssl=false -Dcom.sun.management.jmxremote.local.only=false -Dcom.sun.management.jmx    remote.port=1254 -javaagent:/jmx_prometheus_javaagent-0.8.jar=9523:/hbasem.yaml"
#======================================= prometheus jmx export start===================================
HBASE_JMX_OPTS="-Dcom.sun.management.jmxremote.authenticate=false -Dcom.sun.management.jmxremote.ssl=false -Dcom.sun.management.jmxremote.local.only=false -Dcom.sun.management.jmxre    mote.port=1255 -javaagent:/jmx_prometheus_javaagent-0.8.jar=9522:/hbase.yaml"
#======================================= prometheus jmx export end ===================================

希望對(duì)正在查看文章的您有所幫助,記得關(guān)注、評(píng)論、收藏,謝謝您文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-420353.html

到了這里,關(guān)于【大數(shù)據(jù)監(jiān)控】Grafana、Spark、HDFS、YARN、Hbase指標(biāo)性能監(jiān)控安裝部署詳細(xì)文檔的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • HDFS 分布式存儲(chǔ) spark storm HBase

    HDFS 分布式存儲(chǔ) spark storm HBase 分布式結(jié)構(gòu) master slave name node client 負(fù)責(zé)文件的拆分 128MB 3份 data node MapReduce 分布式計(jì)算 離線計(jì)算 2.X之前 速度比較慢 對(duì)比spark 編程思想 Map 分 Reduce 合 hadoop streaming Mrjob Yarn 資源管理 cpu 內(nèi)存 MapReduce spark 分布式計(jì)算 RM NM AM 社區(qū)版 CDH 什么是Hive 基于

    2024年02月14日
    瀏覽(27)
  • 微服務(wù)應(yīng)用性能分析實(shí)戰(zhàn)07 數(shù)據(jù)可視化:多數(shù)據(jù)源讓 Grafana 監(jiān)控報(bào)警更高效

    這一講我將帶領(lǐng)你學(xué)習(xí)可視化監(jiān)控套件 Grafana。Grafana 是一個(gè)開(kāi)源的數(shù)據(jù)可視化的平臺(tái),所以它既不會(huì)監(jiān)控應(yīng)用,也不會(huì)產(chǎn)生監(jiān)控?cái)?shù)據(jù),更不會(huì)對(duì)接原始數(shù)據(jù)進(jìn)行分析存儲(chǔ)。 它僅專(zhuān)注數(shù)據(jù)可視化本身 。 本節(jié)內(nèi)容,會(huì)先通過(guò)與上一節(jié) Kibana 可視化套件對(duì)比,來(lái)講述 Grafana 的核心

    2024年02月05日
    瀏覽(28)
  • Hadoop/HDFS/MapReduce/Spark/HBase重要知識(shí)點(diǎn)整理

    Hadoop/HDFS/MapReduce/Spark/HBase重要知識(shí)點(diǎn)整理

    本復(fù)習(xí)提綱主要參考北京大學(xué)計(jì)算機(jī)學(xué)院研究生課程《網(wǎng)絡(luò)大數(shù)據(jù)管理與應(yīng)用》課程資料以及廈門(mén)大學(xué)計(jì)算機(jī)科學(xué)系研究生課程 《大數(shù)據(jù)技術(shù)基礎(chǔ)》相關(guān)材料整理而成,供廣大網(wǎng)友學(xué)習(xí)參考,如有版權(quán)問(wèn)題請(qǐng)聯(lián)系作者刪除:guanmeige001@pku.edu.cn Hadoop簡(jiǎn)介 Hadoop的功能和作用: 高

    2024年02月02日
    瀏覽(48)
  • 性能監(jiān)控平臺(tái) | Prometheus+InfluxDB + Grafana!

    性能監(jiān)控平臺(tái) | Prometheus+InfluxDB + Grafana!

    在本文中,我將把幾個(gè)常用的監(jiān)控部分給梳理一下。前面我們提到過(guò),在性能監(jiān)控圖譜中,有操作系統(tǒng)、應(yīng)用服務(wù)器、中間件、隊(duì)列、緩存、數(shù)據(jù)庫(kù)、網(wǎng)絡(luò)、前端、負(fù)載均衡、Web 服務(wù)器、存儲(chǔ)、代碼等很多需要監(jiān)控的點(diǎn)。顯然這些監(jiān)控點(diǎn)不能在一個(gè)專(zhuān)欄中全部覆蓋并一一細(xì)化

    2024年02月13日
    瀏覽(25)
  • 性能優(yōu)化 - 前端性能監(jiān)控和性能指標(biāo)計(jì)算方式

    性能優(yōu)化 - 前端性能監(jiān)控和性能指標(biāo)計(jì)算方式

    利用LightHouse進(jìn)行合理的頁(yè)面性能優(yōu)化 這篇文章主要講解了如何使用 Lighthouse 。 這里把相關(guān)圖片再展示一下: 我們可以看到 Lighthouse 計(jì)算的時(shí)候,會(huì)根據(jù)這幾個(gè)維度的指標(biāo)來(lái)計(jì)算總分。那么本篇文章,就主要講解下前端性能監(jiān)控相關(guān)的重要指標(biāo)含義和計(jì)算方式。 在介紹指標(biāo)

    2024年02月15日
    瀏覽(24)
  • Telegraf-Influxdb-Grafana容器化部署拓展(Https、AD域、告警集成)并監(jiān)控Cisco設(shè)備指標(biāo)

    Telegraf-Influxdb-Grafana容器化部署拓展(Https、AD域、告警集成)并監(jiān)控Cisco設(shè)備指標(biāo)

    還記得在去年的筆記中提到過(guò)使用python的pysnmp模塊,配合Influxdb,Grafana收集Cisco設(shè)備指標(biāo)。鏈接如下:https://blog.csdn.net/tushanpeipei/article/details/117329794 。在該實(shí)例中,我們通過(guò)python編寫(xiě)腳本收集設(shè)備信息,并將收集的信息格式化后發(fā)送到Influxdb進(jìn)行存儲(chǔ),最后Grfana從Influxdb中讀取

    2023年04月08日
    瀏覽(27)
  • (mac)性能監(jiān)控平臺(tái)搭建JMeter+Grafana+Influxdb

    (mac)性能監(jiān)控平臺(tái)搭建JMeter+Grafana+Influxdb

    通過(guò)influxdb數(shù)據(jù)庫(kù)存儲(chǔ)jmeter的結(jié)果,再通過(guò)grafana采集influxdb數(shù)據(jù)庫(kù)數(shù)據(jù),完成監(jiān)控平臺(tái)展示 官網(wǎng)下載 https://portal.influxdata.com/downloads/ 官網(wǎng)最新版: (1) 安裝influxDB? 安裝在被測(cè)服務(wù)器上? ?influxDX官方文檔 OS X 10.8或者更高版本的用戶,用 brew直接安裝 (2)啟動(dòng) influxdb服務(wù)?

    2024年04月23日
    瀏覽(20)
  • 性能監(jiān)控平臺(tái):基于 Prometheus+InfluxDB + Grafana|果斷收藏

    性能監(jiān)控平臺(tái):基于 Prometheus+InfluxDB + Grafana|果斷收藏

    在本文中,我將把幾個(gè)常用的監(jiān)控部分給梳理一下。前面我們提到過(guò),在性能監(jiān)控圖譜中,有操作系統(tǒng)、應(yīng)用服務(wù)器、中間件、隊(duì)列、緩存、數(shù)據(jù)庫(kù)、網(wǎng)絡(luò)、前端、負(fù)載均衡、Web 服務(wù)器、存儲(chǔ)、代碼等很多需要監(jiān)控的點(diǎn)。顯然這些監(jiān)控點(diǎn)不能在一個(gè)專(zhuān)欄中全部覆蓋并一一細(xì)化

    2024年02月07日
    瀏覽(25)
  • (一)性能實(shí)時(shí)監(jiān)控平臺(tái)搭建(Grafana+Influxdb+Jmeter)

    (一)性能實(shí)時(shí)監(jiān)控平臺(tái)搭建(Grafana+Influxdb+Jmeter)

    主要介紹使用Docker安裝Grafana+Influxdb結(jié)合Jmeter搭建可視化監(jiān)控平臺(tái) 使用Docker搭建influxdb數(shù)據(jù)庫(kù)服務(wù) 創(chuàng)建influxdb容器 命令:docker run -d --name influxdb-dsp?--restart=always -p 8086:8086 -e \\\"TZ=Asia/Shanghai\\\" influxdb:1.8 進(jìn)入容器創(chuàng)建一個(gè)atp數(shù)據(jù)庫(kù),用于存儲(chǔ)我們的壓測(cè)數(shù)據(jù) 命令:docker exec -it my-i

    2023年04月08日
    瀏覽(23)
  • Docker+Jmeter+InfluxDB+Grafana 搭建性能監(jiān)控平臺(tái)

    Docker+Jmeter+InfluxDB+Grafana 搭建性能監(jiān)控平臺(tái)

    當(dāng)今互聯(lián)網(wǎng)發(fā)展迅速,應(yīng)用程序的性能監(jiān)控顯得越來(lái)越重要。 Docker+Jmeter+InfluxDB+Grafana 是一種常用的性能監(jiān)控平臺(tái),可以幫助開(kāi)發(fā)者快速搭建一套可靠的監(jiān)控體系。在本文中,我們將介紹如何使用這些工具搭建性能監(jiān)控平臺(tái),以便開(kāi)發(fā)人員可以快速發(fā)現(xiàn)并解決應(yīng)用程序性能問(wèn)

    2024年02月21日
    瀏覽(27)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包