国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Kubernetes/k8s之HPA,命名空間資源限制

這篇具有很好參考價值的文章主要介紹了Kubernetes/k8s之HPA,命名空間資源限制。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

Horizontal Pod Autoscaling:po的水平自動伸縮

這是k8s自帶的模塊

pod占用cpu比例達(dá)到一定的閥值,會觸發(fā)伸縮機(jī)制。

根據(jù)cpu的閥值觸發(fā)伸縮機(jī)制

replication controller 副本控制器 控制pod的副本數(shù)

deployment controller 節(jié)點(diǎn)控制器 部署pod

hpa控制副本的數(shù)量,以及如何控制部署pod

1、hpa基于kube-controll-manager服務(wù),周期性的檢測pod的cpu使用率,默認(rèn)30秒檢測一次

2、hpa和replication controller,deployment controller都屬于k8s的資源對象。通過跟蹤分析副本控制器和deployment的pod的負(fù)載變化,針對性的調(diào)整目標(biāo)pod的副本數(shù)

閥值:在正常情況下,pod的副本數(shù),以及達(dá)到閥值之后,pod的擴(kuò)容最大數(shù)量

3、組件:metrics-server 部署到集群中,對外提供度量的數(shù)據(jù)

HPA的規(guī)則:

1、定義pod時候必須要有資源限制,否則hpa無法進(jìn)行監(jiān)控

2、擴(kuò)容是即時的,只要超過閥值會立刻擴(kuò)容,不是立刻擴(kuò)容到最大副本數(shù),會在最大值和最小值波動,如果擴(kuò)容的數(shù)量滿足了需求,不會在擴(kuò)容

3、縮容是緩慢的,如果業(yè)務(wù)的峰值較高,回收的策略太積極的話,可能會產(chǎn)生業(yè)務(wù)的崩潰,縮容的速度比較慢的

周期性的獲取數(shù)據(jù),縮容的機(jī)制

HPA的部署運(yùn)用

進(jìn)行HPA的部署設(shè)置


//在所有 Node 節(jié)點(diǎn)上傳 metrics-server.tar 鏡像包到 /opt 目錄
cd /opt/
docker load -i metrics-server.tar
 
#在主master節(jié)點(diǎn)上執(zhí)行
kubectl apply -f components.yaml

HPA伸縮的測試演示

apiVersion: apps/v1
kind: Deployment
metadata:
  name: centos-test
  labels:
    test: centos1
spec:
  replicas: 1
  selector:
    matchLabels:
      test: centos1
  template:
    metadata:
      labels:
        test: centos1
    spec:
      containers:
        - name: centos
          image: centos:7
          command: ["/bin/bash", "-c", "yum -y install epel-release;yum -y install stress;sleep 3600"]
          resources:
            limits:
              cpu: "1"
              memory: 512Mi
---
apiVersion: autoscaling/v2beta2
kind: HorizontalPodAutoscaler
metadata:
  name: hpa-centos7
spec:
  scaleTargetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: centos-test
  minReplicas: 1
  maxReplicas: 5
  metrics:
  - type: Resource
    resource:
      name: cpu
      targetAverageUtilization: 50

Kubernetes/k8s之HPA,命名空間資源限制,kubernetes,容器,云原生

Kubernetes/k8s之HPA,命名空間資源限制,kubernetes,容器,云原生

Kubernetes/k8s之HPA,命名空間資源限制,kubernetes,容器,云原生

命名空間資源限

ResourceQuota:命名空間進(jìn)行資源限制

apiVersion: apps/v1
kind: Deployment
metadata:
  name: centos-test1
  namespace: test1
  labels:
    test: centos2
spec:
  replicas: 6
  selector:
    matchLabels:
      test: centos2
  template:
    metadata:
      labels:
        test: centos2
    spec:
      nodeSelector:
        kubernetes.io/hostname: node01
      containers:
        - name: centos
          image: centos:7
          command: ["/bin/bash", "-c", "yum -y install epel-release;yum -y install stress;sleep 3600"]
          resources:
            limits:
              cpu: "1"
              memory: 512Mi
---
apiVersion: v1
kind: ResourceQuota
metadata:
  name: ns-resource
  namespace: test1
spec:
  hard:
    pods: "10"
    requests.memory: 1Gi
    limits.cpu: "4"
    limits.memory: 2Gi
    configmaps: "10"
#在當(dāng)前這個命名空間能創(chuàng)建最大configmap數(shù)量10個
    persistentvolumeclaims: "4"
#當(dāng)前命名空間只能使用4個pvc
    secrets: "9"
#創(chuàng)建賈母的secret只能9個
    services: "5"
#創(chuàng)建service個數(shù)只能五個
    services.nodeports: "2"
#創(chuàng)建nodeport類型的svc只能兩個

只能在命名空間創(chuàng)建兩個service第三個就不創(chuàng)建了因?yàn)橄拗屏俗疃嘀荒軇?chuàng)建兩個

Kubernetes/k8s之HPA,命名空間資源限制,kubernetes,容器,云原生

第二種LimitRange

apiVersion: apps/v1
kind: Deployment
metadata:
  name: centos-test3
  namespace: test3
  labels:
    test: centos3
spec:
  replicas: 1
  selector:
    matchLabels:
      test: centos3
  template:
    metadata:
      labels:
        test: centos3
    spec:
      containers:
        - name: centos3
          image: centos:7
          command: ["/bin/bash", "-c", "yum -y install epel-release;yum -y install stress;sleep 3600"]
---

apiVersion: v1
kind: LimitRange
metadata:
  name: test3-limit
  namespace: test3
spec:
  limits:
  - default:
      memory: 512Mi
      cpu: "1"
    defaultRequest:
      memory: 256Mi
      cpu: "0.5"
    type: Container

Kubernetes/k8s之HPA,命名空間資源限制,kubernetes,容器,云原生

Kubernetes/k8s之HPA,命名空間資源限制,kubernetes,容器,云原生

pod的副本數(shù)擴(kuò)縮容,有兩種方式:

1、手動方式kubectl scale deployment nginx1 --replicas=5,kubectl edit,修改yaml文件 apply -f

2、自動擴(kuò)縮容 hpa 監(jiān)控指標(biāo)是cpu和內(nèi)存沒關(guān)系

資源限制

pod資源限制

命名空間資源限

ucky-cloud項(xiàng)目--部署在test1的命名空間,如果lucky-cloud不做限制,或者命名空間不做限制,他會依然會沾滿所有集群資源

k8s集群部署pod的最大數(shù)量:10000

busybox:就是服務(wù)最小化的centos 4M

哪些服務(wù)會部署在k8s當(dāng)中

中間件 kafka: 6

redis: 3

選好節(jié)點(diǎn) 用nodeName固定在一個pod上,擴(kuò)容之后閥值是否會下降

apiVersion: apps/v1
kind: Deployment
metadata:
  name: centos-test8
  labels:
    test: centos8
spec:
  replicas: 3
  selector:
    matchLabels:
      test: centos8
  template:
    metadata:
      labels:
        test: centos8
    spec:
      nodeSelector:
        kubernetes.io/hostname: node01
      containers:
        - name: centos8
          image: centos:7
          command: ["/bin/bash", "-c", "yum -y install epel-release;yum -y install stress;sleep 3600"]
          resources:
            limits:
              cpu: "2"
              memory: 512Mi
---
apiVersion: autoscaling/v1
kind: HorizontalPodAutoscaler
metadata:
  name: hpa-centos7
spec:
  scaleTargetRef:
    apiVersion: apps/v1
    kind: Deployment
    name: centos-test8
  minReplicas: 1
  maxReplicas: 5
  targetCPUUtilizationPercentage: 50

Kubernetes/k8s之HPA,命名空間資源限制,kubernetes,容器,云原生

總結(jié)

HPA的自動擴(kuò)縮容

命令空間兩種方式

ResourceQuota:可以對命名空間進(jìn)行資源限制

第二種LimitRange:直接聲明在命名空間當(dāng)中創(chuàng)建pod,容器的資源限制,只是一種統(tǒng)一的限制,所有的pod都受這個條件的制約

pod資源限制 一般是我們創(chuàng)建的時候聲明好的,必加選項(xiàng)

resources

limit

命名空間資源限制:對命名空間使用cpu和內(nèi)存一定會做限制通過

核心:防止整個集群的資源被一個服務(wù)或者一個命名空間沾滿

ResourceQuata

命名空間統(tǒng)一資源限制在pod LimitRange文章來源地址http://www.zghlxwxcb.cn/news/detail-820730.html

到了這里,關(guān)于Kubernetes/k8s之HPA,命名空間資源限制的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • (kubernetes)k8s常用資源管理

    (kubernetes)k8s常用資源管理

    目錄 k8s常用資源管理 1、創(chuàng)建一個pod 1)創(chuàng)建yuml文件 2)創(chuàng)建容器 3)查看所有pod創(chuàng)建運(yùn)行狀態(tài) 4)查看指定pod資源 5)查看pod運(yùn)行的詳細(xì)信息 6)驗(yàn)證運(yùn)行的pod 2、pod管理 1)刪除pod 2)查看刪除pod無法找到 3)創(chuàng)建pod 4)發(fā)現(xiàn)最先創(chuàng)建的pod運(yùn)行在k8s-master節(jié)點(diǎn)上,下載鏡像速度太

    2024年02月13日
    瀏覽(52)
  • yum部署kubernetes(k8s)集群、k8s常用資源管理

    目錄 一、環(huán)境搭建 1、準(zhǔn)備環(huán)境 1)計(jì)算機(jī)說明,建議系統(tǒng)版本7.4或者7.6 2)修改所有主機(jī)的計(jì)算機(jī)名設(shè)置host文件 ?2、安裝master節(jié)點(diǎn) 1)安裝etcd配置etcd 2)安裝k8s-master節(jié)點(diǎn) 3)配置apiserver 4)配置controller和scheduler 5)啟動k8s服務(wù) 3、安裝k8s-master上的node 1)安裝node 2)配置kube

    2024年02月13日
    瀏覽(35)
  • Kubernetes(k8s)核心資源解析:Pod詳解

    Kubernetes(k8s)核心資源解析:Pod詳解

    ??The Begin??點(diǎn)點(diǎn)關(guān)注,收藏不迷路?? Pod是Kubernetes中最小的調(diào)度單元,它可以包含一個或多個容器。Pod中的所有容器共享網(wǎng)絡(luò)和存儲卷,它們一起運(yùn)行在同一個節(jié)點(diǎn)上。Pod提供了一種抽象層,使得容器可以作為一個邏輯單元來管理。 Pod中的容器共享IP地址、端口空間和存儲

    2024年04月11日
    瀏覽(102)
  • 云原生Kubernetes:K8S配置資源管理

    云原生Kubernetes:K8S配置資源管理

    目錄 一、理論 1.Secret 2.Secret創(chuàng)建 3.Secret使用 4.Configmap 5.Configmap創(chuàng)建 6.Configmap使用 二、實(shí)驗(yàn) 1.Secret創(chuàng)建 2.Secret使用 3.Configmap創(chuàng)建 4.Configmap使用 三、問題 1.變量引用生成資源報(bào)錯 2.查看pod日志失敗 3.創(chuàng)建configmap報(bào)錯 4.YAML創(chuàng)建configmap報(bào)錯 5. 生成資源報(bào)錯 6.文件掛載pod報(bào)錯Error 四

    2024年02月07日
    瀏覽(25)
  • Kubernetes技術(shù)--k8s核心技術(shù)yaml資源編排

    (1).引入 ? ? ? ?我們可以使用kubectl實(shí)現(xiàn)單行指令的操作,但是這樣做的壞處是不復(fù)用,所以為了更好的實(shí)現(xiàn)對一系列資源的編排工作。kuberntes中使用一種叫做 資源清單文件(yaml)來實(shí)現(xiàn)對資源管理和資源對象編排部署 。 (2).概述 ? ? yaml是一 種標(biāo)記語言 。為了強(qiáng)調(diào)這種語言以

    2024年02月10日
    瀏覽(26)
  • 【K8S】Kubernetes 中有狀態(tài)的資源對象——StatefulSet

    現(xiàn)在基本上很多服務(wù)中的應(yīng)用都是有狀態(tài)的,比如MySQL數(shù)據(jù)庫、Redis等,因?yàn)槠渲械臄?shù)據(jù)在不斷地變化,所以這些應(yīng)用每個時刻都處于一個不同的狀態(tài)?;蛘咭粋€系統(tǒng)中存在多個不同的應(yīng)用,這些應(yīng)用存在一定的依賴關(guān)系。例如一個博客服務(wù),該服務(wù)中包含了Redis緩存和MySQL數(shù)

    2024年02月04日
    瀏覽(26)
  • kubernetes(k8s)為容器和 Pod 分配內(nèi)存資源

    kubernetes(k8s)為容器和 Pod 分配內(nèi)存資源

    展示如何將內(nèi)存請求(request)和內(nèi)存限制(limit)分配給一個容器。 我們保障容器擁有它請求數(shù)量的內(nèi)存,但不允許使用超過限制數(shù)量的內(nèi)存。 創(chuàng)建新的命名空間 編輯yaml文件 配置文件的 args 部分提供了容器啟動時的參數(shù)。 “–vm-bytes”, “150M” 參數(shù)告知容器嘗試分配 15

    2024年02月15日
    瀏覽(109)
  • 【kubernetes】關(guān)于k8s集群的資源發(fā)布方式(灰度/滾動發(fā)布)

    【kubernetes】關(guān)于k8s集群的資源發(fā)布方式(灰度/滾動發(fā)布)

    目錄 一、常見的發(fā)布方式 二、詳解kubectl陳述式方式做灰度發(fā)布(金絲雀發(fā)布) 步驟一:先基于deployment控制器創(chuàng)建pod,然后發(fā)布 步驟二:基于命令行灰度發(fā)布 步驟三:測試等到版本穩(wěn)定以后,再完成繼續(xù)發(fā)布 三、滾動發(fā)布詳解 藍(lán)綠發(fā)布:兩套環(huán)境交替升級,舊版本保留一定

    2024年04月23日
    瀏覽(27)
  • 打破限制,隨時隨地練習(xí)K8S!在線Kubernetes平臺開啟你的技術(shù)之旅!

    打破限制,隨時隨地練習(xí)K8S!在線Kubernetes平臺開啟你的技術(shù)之旅!

    是不是有很多小伙伴想學(xué)習(xí)k8s,但是又沒有機(jī)器去練習(xí)。使用自己的筆記本電腦或者主機(jī)只能搭建單機(jī)版本的k8s來練習(xí)。 現(xiàn)在福利來了,給大家介紹一個在線多節(jié)點(diǎn)k8s練習(xí)平臺:Play with Kubernetes。 Play with Kubernetes 一個提供了在瀏覽器中使用免費(fèi) CentOS Linux 虛擬機(jī)的體驗(yàn)平臺,

    2024年04月14日
    瀏覽(24)
  • Kubernetes(K8s)從入門到精通系列之三:K8s的基本概念和術(shù)語之資源對象概述

    K8s中的基本概念和術(shù)語大多是圍繞資源對象(Resource Object)來說的,而資源對象在總體上可分為以下兩類: 某種資源的對象,例如節(jié)點(diǎn)(Node)、Pod、服務(wù)(Service)、存儲卷(Volume)。 與資源對象相關(guān)的事物與動作,例如標(biāo)簽(Label)、注解(Annotation)、命名空間(Namespace)、部署(Deployment)、

    2024年02月14日
    瀏覽(109)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包