国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana

這篇具有很好參考價(jià)值的文章主要介紹了k8s集群監(jiān)控方案--node-exporter+prometheus+grafana。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

目錄

前置條件

一、下載yaml文件

二、部署yaml各個(gè)組件

2.1 node-exporter.yaml

2.2 Prometheus

2.3 grafana

2.4訪問(wèn)測(cè)試

三、grafana初始化

3.1加載數(shù)據(jù)源

3.2導(dǎo)入模板

四、helm方式部署


前置條件

安裝好k8s集群(幾個(gè)節(jié)點(diǎn)都可以,本人為了方便實(shí)驗(yàn)k8s集群只有一個(gè)master節(jié)點(diǎn)),注意prometheus是部署在k8s集群內(nèi)部的,不同于傳統(tǒng)監(jiān)控分為監(jiān)控端和被控端。

部署k8s參考教程:Linux部署單節(jié)點(diǎn)k8s_linux單節(jié)點(diǎn)安裝k8s_luo_guibin的博客-CSDN博客

? ? ? ? ? ? ? ? ? ? ? ? ?? ? ??k8s集群環(huán)境的搭建 · 語(yǔ)雀

11.0.1.12

k8s-master / node-exporter+prometheus+grafana

一、下載yaml文件

鏈接:https://pan.baidu.com/s/1vmT0Xu7SBB36-odiCMy9zA??(鏈接永久有效

提取碼:9999

解壓

[root@prometheus opt]# yum install -y zip unzip tree
[root@prometheus opt]# unzip k8s-prometheus-grafana-master.zip 
[root@k8s-master k8s-prometheus-grafana-master]# pwd
/opt/k8s-prometheus-grafana-master
[root@k8s-master k8s-prometheus-grafana-master]# tree
.
├── grafana
│?? ├── grafana-deploy.yaml
│?? ├── grafana-ing.yaml
│?? └── grafana-svc.yaml
├── node-exporter.yaml
├── prometheus
│?? ├── configmap.yaml
│?? ├── prometheus.deploy.yml
│?? ├── prometheus.svc.yml
│?? └── rbac-setup.yaml
└── README.md

二、部署yaml各個(gè)組件

kubectl命令tab補(bǔ)全

[root@k8s-master ~]# yum install -y bash-completion
[root@k8s-master ~]# source <(kubectl completion bash)

2.1 node-exporter.yaml

[root@k8s-master k8s-prometheus-grafana-master]# kubectl apply -f node-exporter.yaml 
daemonset.apps/node-exporter created
service/node-exporter created

#因?yàn)橹挥幸粋€(gè)節(jié)點(diǎn),這里如果有多個(gè)節(jié)點(diǎn),節(jié)點(diǎn)數(shù)=node-exporterPod數(shù)
[root@k8s-master k8s-prometheus-grafana-master]# kubectl get pod -A | grep node-exporter
kube-system    node-exporter-kpdxh                  0/1     ContainerCreating      0          28s
[root@k8s-master k8s-prometheus-grafana-master]# kubectl get daemonset -A | grep exporter
kube-system    node-exporter     1         1         1       1            1           <none>                   2m43s
[root@k8s-master k8s-prometheus-grafana-master]# kubectl get service -A | grep exporter
kube-system   node-exporter   NodePort    10.96.73.86   <none>        9100:31672/TCP           2m59s

2.2 Prometheus

[root@k8s-master prometheus]# pwd
/opt/k8s-prometheus-grafana-master/prometheus
[root@k8s-master prometheus]# ls
configmap.yaml  prometheus.deploy.yml  prometheus.svc.yml  rbac-setup.yaml

按照順序?rbac-setup.yaml?configmap.yaml?prometheus.deploy.yml?prometheus.svc.yml ,yaml、yml文件沒區(qū)別,不用在意。

[root@k8s-master prometheus]# kubectl apply -f rbac-setup.yaml
clusterrole.rbac.authorization.k8s.io/prometheus created
serviceaccount/prometheus created
clusterrolebinding.rbac.authorization.k8s.io/prometheus created

[root@k8s-master prometheus]# kubectl apply -f configmap.yaml
configmap/prometheus-config created

[root@k8s-master prometheus]# kubectl apply -f prometheus.deploy.yml
deployment.apps/prometheus created

[root@k8s-master prometheus]# kubectl apply -f prometheus.svc.yml
service/prometheus created

2.3 grafana

[root@k8s-master grafana]# pwd
/opt/k8s-prometheus-grafana-master/grafana
[root@k8s-master grafana]# ls
grafana-deploy.yaml  grafana-ing.yaml  grafana-svc.yaml

按照順序安裝?grafana-deploy.yaml?grafana-svc.yaml?grafana-ing.yaml

[root@k8s-master grafana]# kubectl apply -f grafana-deploy.yaml
deployment.apps/grafana-core created

[root@k8s-master grafana]# kubectl apply -f grafana-svc.yaml
service/grafana created

[root@k8s-master grafana]# kubectl apply -f grafana-ing.yaml
ingress.extensions/grafana created

檢查三個(gè)pod(node-exporter可能有多個(gè))

[root@k8s-master grafana]# kubectl get pod -A | grep node-exporter
kube-system    node-exporter-kpdxh                  1/1     Running                0          13m

[root@k8s-master grafana]# kubectl get pod -A | grep prometheus
kube-system    prometheus-7486bf7f4b-xb4t8          1/1     Running                0          6m21s

[root@k8s-master grafana]# kubectl get pod -A | grep grafana
kube-system    grafana-core-664b68875b-fhjvt        1/1     Running                0          2m18s

檢查服務(wù)service,三個(gè)svc類型均為NodePort

[root@k8s-master grafana]# kubectl get svc -A
NAMESPACE     NAME            TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)                  AGE
default       kubernetes      ClusterIP   10.96.0.1       <none>        443/TCP                  7h17m
kube-system   grafana         NodePort    10.107.115.11   <none>        3000:31748/TCP           3m41s
kube-system   kube-dns        ClusterIP   10.96.0.10      <none>        53/UDP,53/TCP,9153/TCP   7h17m
kube-system   node-exporter   NodePort    10.96.73.86     <none>        9100:31672/TCP           15m
kube-system   prometheus      NodePort    10.111.178.83   <none>        9090:30003/TCP           7m57s

2.4訪問(wèn)測(cè)試

curl訪問(wèn)測(cè)試?

[root@k8s-master grafana]# curl 127.0.0.1:31672
<html lang="en">
......

#node-exporter收集到的數(shù)據(jù)
[root@k8s-master grafana]# curl 127.0.0.1:31672/metrics
# HELP go_gc_duration_seconds A summary of the pause duration of garbage collection cycles.

[root@k8s-master grafana]# curl 127.0.0.1:30003
<a href="/graph">Found</a>.

[root@k8s-master grafana]# curl 127.0.0.1:31748
<a href="/login">Found</a>.

?訪問(wèn)11.0.1.12:31672/metrics,node-exporter收集到的數(shù)據(jù)

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

?訪問(wèn)11.0.1.12:30003/graph

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

選擇 "status"--"targets"

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

三、grafana初始化

訪問(wèn)11.0.1.12:31748/login

賬號(hào)密碼都是admin

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

3.1加載數(shù)據(jù)源

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

監(jiān)聽地址 10.111.178.83:9090,prometheus的service地址,重啟后grafana數(shù)據(jù)源地址可能會(huì)改變導(dǎo)致grafana連接不上prometheus且,注意檢測(cè)數(shù)據(jù)源地址。在左側(cè)configuration--data source可編輯數(shù)據(jù)源。

[root@k8s-master grafana]# kubectl get svc -A | grep prometheus
kube-system   prometheus      NodePort    10.111.178.83   <none>        9090:30003/TCP           40m

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

3.2導(dǎo)入模板

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

模板編號(hào)315

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

選擇數(shù)據(jù)源prometheus

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

?完成監(jiān)控

k8s集群監(jiān)控方案--node-exporter+prometheus+grafana,k8s,kubernetes,prometheus,集群監(jiān)控

四、helm方式部署

......(待更新)

參考文檔:

原理:Node Exporter 簡(jiǎn)介_node_exporter_富士康質(zhì)檢員張全蛋的博客-CSDN博客文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-662642.html

到了這里,關(guān)于k8s集群監(jiān)控方案--node-exporter+prometheus+grafana的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 關(guān)于k8s中的node_exporter異常write: broken pipe問(wèn)題排查

    關(guān)于k8s中的node_exporter異常write: broken pipe問(wèn)題排查

    公司網(wǎng)絡(luò)更改重啟服務(wù)器后,發(fā)現(xiàn)Prometheus監(jiān)控中node節(jié)點(diǎn)三個(gè)掛掉了,實(shí)際上節(jié)點(diǎn)服務(wù)器是正常的,但是監(jiān)控的node_exporter請(qǐng)求http://IP:9100/metrics超過(guò)10秒沒有獲取返回?cái)?shù)據(jù)則認(rèn)為服務(wù)掛掉。 到各個(gè)節(jié)點(diǎn)服務(wù)器用curl命令檢測(cè)多久返回?cái)?shù)據(jù) time_connect :連接時(shí)間,從開始到TCP三次握

    2024年02月10日
    瀏覽(17)
  • 設(shè)置k8s中節(jié)點(diǎn)node的ROLES值,K8S集群怎么修改node1的集群ROLES

    其實(shí)這個(gè)Roles就是一個(gè)標(biāo)簽,執(zhí)行以下命令給node1 和 node2 打上worker標(biāo)簽 k8s-node1 打上標(biāo)簽為worker1 k8s-node2 打上標(biāo)簽為worker2

    2024年02月02日
    瀏覽(20)
  • Prometheus+Grafana監(jiān)控K8S集群(基于K8S環(huán)境部署)

    Prometheus+Grafana監(jiān)控K8S集群(基于K8S環(huán)境部署)

    1、服務(wù)器及K8S版本信息: IP地址 主機(jī)名稱 角色 K8S版本 16.32.15.200 master-1 Master節(jié)點(diǎn) v1.23.0 16.32.15.201 node-1 Node節(jié)點(diǎn) v1.23.0 16.32.15.202 node-2 Node節(jié)點(diǎn) v1.23.0 2、部署組件版本: 序號(hào) 名稱 版本 作用 1 Prometheus v2.33.5 收集、存儲(chǔ)和處理指標(biāo)數(shù)據(jù) 2 Node_exporter v0.16.0 采集服務(wù)器指標(biāo),如CP

    2024年02月04日
    瀏覽(34)
  • 在k8s集群內(nèi)搭建Prometheus監(jiān)控平臺(tái)

    在k8s集群內(nèi)搭建Prometheus監(jiān)控平臺(tái)

    Prometheus由SoundCloud發(fā)布,是一套由go語(yǔ)言開發(fā)的開源的監(jiān)控報(bào)警時(shí)間序列數(shù)據(jù)庫(kù)的組合。 Prometheus的基本原理是通過(guò)HTTP協(xié)議周期性抓取被監(jiān)控組件的狀態(tài),任意組件只要提供對(duì)應(yīng)的HTTP接口就可以接入監(jiān)控。不需要任何SDK或者其他的集成過(guò)程。這樣做非常適合做虛擬化環(huán)境監(jiān)控

    2024年02月14日
    瀏覽(86)
  • k8s集群加入一個(gè)新的node節(jié)點(diǎn)

    k8s集群加入一個(gè)新的node節(jié)點(diǎn)

    實(shí)驗(yàn)?zāi)康模涸谝延械膋8s集群中加入一個(gè)新的node節(jié)點(diǎn),并正常工作。 已有的k8s集群節(jié)點(diǎn)信息:centos7.9 kubeadm 安裝kubernetes集群 192.168.206.130 master 192.168.206.131 k8s-node1 192.168.206.136 k8s-node2 新加入一個(gè)節(jié)點(diǎn): 192.168.206.138 k8s-node3 kubectl get nodes ?kubectl get nodes -o wide ?在進(jìn)行下面的步驟之

    2024年02月16日
    瀏覽(21)
  • k8s node節(jié)點(diǎn)加入集群,token過(guò)期

    k8s node節(jié)點(diǎn)加入集群,token過(guò)期

    1、master01節(jié)點(diǎn)執(zhí)行 ?kubeadm token create --print-join-command 2、執(zhí)行命令 kubeadm join 192.168.0.236:16443 --token qucd8q.hsfq4a1afluzaky3 --discovery-token-ca-cert-hash sha256:92175a356db070deb2ddd3823e288e3005a4baeec9b68580dcc11ce4d3767195 3、查看node02節(jié)點(diǎn)是否加入集群

    2024年01月18日
    瀏覽(23)
  • k8s集群—node節(jié)點(diǎn)的刪除與添加

    在搭建集群過(guò)程中,有時(shí)候會(huì)遇到一個(gè)節(jié)點(diǎn)處于ready狀態(tài),另一個(gè)節(jié)點(diǎn)處于notready狀態(tài),需要把node節(jié)點(diǎn)從集群中刪除后再次加入。 如果需要在k8s集群中刪除節(jié)點(diǎn),首先需要在master節(jié)點(diǎn)上刪除該節(jié)點(diǎn)的相關(guān)數(shù)據(jù),再刪除該節(jié)點(diǎn),接著在該節(jié)點(diǎn)上進(jìn)行reset操作,接著刪除相關(guān)文件

    2024年02月17日
    瀏覽(42)
  • k8s集群node節(jié)點(diǎn)運(yùn)行kubectl命令

    k8s集群node節(jié)點(diǎn)運(yùn)行kubectl命令

    ? ? ? ? 在容器化項(xiàng)目部署中,某些應(yīng)用需要部署到指定的機(jī)器上(涉及機(jī)器信息收集,然后生成license,機(jī)器授權(quán)等),所以需要在k8s集群的node節(jié)點(diǎn)上,手動(dòng)執(zhí)行kubectl命令。 ? ? ? ? 具體的操作步驟如下: (1)在node節(jié)點(diǎn)執(zhí)行任意kubectl命令,例如:kubectl get nodes,可以看到

    2024年02月14日
    瀏覽(29)
  • k8s集群監(jiān)控cadvisor+prometheus+grafana部署

    k8s集群監(jiān)控cadvisor+prometheus+grafana部署

    目錄 1.新建命名空間monitor 2.部署 2.1部署cadvisor 2.2部署node_exporter 2.3部署prometheus 2.4部署rbac權(quán)限 2.5.部署 metrics 2.6部署grafana 3.測(cè)試監(jiān)控效果 參考文章: k8s集群部署cadvisor+node-exporter+prometheus+grafana監(jiān)控系統(tǒng) - cyh00001 - 博客園 準(zhǔn)備工作: Cluster集群節(jié)點(diǎn)介紹: master:192.168.136.21(以

    2024年01月16日
    瀏覽(98)
  • 【k8s】基于Prometheus監(jiān)控Kubernetes集群安裝部署

    【k8s】基于Prometheus監(jiān)控Kubernetes集群安裝部署

    目錄 基于Prometheus監(jiān)控Kubernetes集群安裝部署 一、環(huán)境準(zhǔn)備 二、部署kubernetes集群 三、部署Prometheus監(jiān)控平臺(tái) 四、部署Grafana服務(wù) 五、grafana? web操作 IP地址 主機(jī)名 組件 192.168.100.131 k8s-master kubeadm、kubelet、kubectl、docker-ce 192.168.100.132 k8s-node01 kubeadm、kubelet、kubectl、docker-ce 192.168

    2024年02月12日
    瀏覽(107)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包