国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

EKS集群的彈性擴(kuò)縮容CA的配置實(shí)戰(zhàn) ·『云原生品鑒與布道』·

這篇具有很好參考價(jià)值的文章主要介紹了EKS集群的彈性擴(kuò)縮容CA的配置實(shí)戰(zhàn) ·『云原生品鑒與布道』·。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

彈性伸縮主要有三個(gè)維度:

HPA,根據(jù)利用率,自動(dòng)伸縮 Pod 數(shù)量

VPA,根據(jù)歷史數(shù)據(jù),自動(dòng)設(shè)置 Pod 的 Request、Limit

CA,根據(jù)使用率,自動(dòng)伸縮 Node 數(shù)量

EKS集群的彈性擴(kuò)縮容是一項(xiàng)功能(這里指node的),可以自動(dòng)上下伸縮您的資源以滿足不斷變化的需求。若沒有此項(xiàng)重要的 Kubernetes 功能,則需要耗費(fèi)大量的人力資源來手動(dòng)執(zhí)行這些工作。

Amazon EKS 支持兩款彈性縮放產(chǎn)品:Kubernetes???Cluster Autoscaler????和???Karpenter????開源自動(dòng)縮放項(xiàng)目。Cluster Autoscaler 使用 AWS 縮放組,而 Karpenter 則直接使用 Amazon EC2 Fleet。(參考 ???https://docs.aws.amazon.com/zh_cn/eks/latest/userguide/autoscaling.html??)

EKS Cluster Autoscaler的配置實(shí)戰(zhàn)

信息:

EKS集群名稱:pre-production??????????

地域: ap-southeast-1??? 亞太地區(qū) (新加坡)

登錄ID: 75xxxxxxx533

1、前置條件:一個(gè)AutoScaling Group???? [Cluster Autoscaler=CA 和 Auto Scaling組 是2個(gè)不同的概念,CA控制AS實(shí)現(xiàn)彈性伸縮。]?

2、創(chuàng)建向 IAM 角色授予 Cluster Autoscaler 所需權(quán)限的 IAM 策略,使得 Cluster Autoscaler 能夠具備操作 AWS AutoScaling 的權(quán)限。

  • 首先在群集上為服務(wù)帳戶啟用IAM角色
eksctl utils associate-iam-oidc-provider \
    --cluster pre-production \
    --approve --region ap-southeast-1
  • 編輯文件IAM權(quán)限描述文件
cat <<EoF > /home/ec2-user/k8s-asg-policy.json
{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Action": [
                "autoscaling:DescribeAutoScalingGroups",
                "autoscaling:DescribeAutoScalingInstances",
                "autoscaling:DescribeLaunchConfigurations",
                "autoscaling:DescribeTags",
                "autoscaling:SetDesiredCapacity",
                "autoscaling:TerminateInstanceInAutoScalingGroup",
                "ec2:DescribeLaunchTemplateVersions"
            ],
            "Resource": "*",
            "Effect": "Allow"
        }
    ]
}
EoF
  • ?通過AWS CLI命令創(chuàng)建IAM權(quán)限?
aws iam create-policy   \
  --policy-name k8s-asg-policy \
  --policy-document file:///bsn/k8s/Cluster-Autoscaler/k8s-asg-policy.json --region ap-southeast-1

3、使用 eksctl 創(chuàng)建 Service Account 以及 IAM 角色,并將上一步創(chuàng)建的 IAM 策略附加到該角色 如果您自定義了集群名稱,請(qǐng)將–cluster xxxx 替換為您的集群名稱(若您沒有使用默認(rèn)配置) 請(qǐng)將 iam::xxxxxxxxxxxx:替換為您的賬戶ID(在您的aws控制臺(tái)點(diǎn)擊右上角可查看),例如263168716248(必須替換)

eksctl create iamserviceaccount \
    --name cluster-autoscaler \
    --namespace kube-system \
    --cluster pre-production \
    --attach-policy-arn "arn:aws:iam::75xxxxxx533:policy/k8s-asg-policy" \
    --approve \
    --override-existing-serviceaccounts --region ap-southeast-1

特別注意:中國(guó)地域的arn格式會(huì)多一個(gè)-cn,寧夏為例:arn:aws-cn:iam::984xxxx4388:

此過程需要花一點(diǎn)時(shí)間,eksctl 會(huì)通過 CloudFormation 創(chuàng)建相關(guān)的權(quán)限資源

通過以下describe命令進(jìn)行驗(yàn)證

kubectl -n kube-system describe sa cluster-autoscaler

4、部署 Cluster Autoscaler,請(qǐng)直接復(fù)制執(zhí)行下面命令

kubectl apply -f https://raw.githubusercontent.com/kubernetes/autoscaler/master/cluster-autoscaler/cloudprovider/aws/examples/cluster-autoscaler-autodiscover.yaml

輸出

serviceaccount/cluster-autoscaler created
clusterrole.rbac.authorization.k8s.io/cluster-autoscaler created
role.rbac.authorization.k8s.io/cluster-autoscaler created
clusterrolebinding.rbac.authorization.k8s.io/cluster-autoscaler created
rolebinding.rbac.authorization.k8s.io/cluster-autoscaler created
deployment.apps/cluster-autoscaler created

5,執(zhí)行以下命令將cluster-autoscaler.kubernetes.io/safe-to-evict批注添加到部署中。

為了防止 CA 刪除運(yùn)行它自己的 pod 的節(jié)點(diǎn), 添加注釋cluster-autoscaler.kubernetes.io/safe-to-evict

kubectl -n kube-system \
    annotate deployment.apps/cluster-autoscaler \
    cluster-autoscaler.kubernetes.io/safe-to-evict="false"

6,通過kubectl edit編輯 Cluster Autoscaler 部署 (Deployment) 在 “spec: container: - command” 部分,將 (包括 <>)替換為當(dāng)前 EKS 集群的名稱(默認(rèn)為odoo),并添加 “–balance-similar-node-groups"以及”–skip-nodes-with-system-pods=false"選項(xiàng) 示范如下: 執(zhí)行命令,翻到后半段

修改部分如下所示(下面3行)

spec:
      containers:
      - command:
        - ./cluster-autoscaler
        - --v=4
        - --stderrthreshold=info
        - --cloud-provider=aws
        - --skip-nodes-with-local-storage=false
        - --expander=least-waste
        - --node-group-auto-discovery=asg:tag=k8s.io/cluster-autoscaler/enabled,k8s.io/cluster-autoscaler/pre-production
        - --balance-similar-node-groups
        - --skip-nodes-with-system-pods=false

完成修改后通過 esc鍵 輸入 :wq 回車 保存并退出。

7,修改 Cluster Autoscaler 的 image 配置,復(fù)制執(zhí)行以下命令

kubectl -n kube-system set image deployment.apps/cluster-autoscaler cluster-autoscaler=k8s.gcr.io/autoscaling/cluster-autoscaler:v1.20.0

這個(gè)版本貌似可以用這2個(gè)命令確定,供參考

export K8S_VERSION=$(kubectl version --short | grep 'Server Version:' | sed 's/[^0-9.]*\([0-9.]*\).*/\1/' | cut -d. -f1,2)
export AUTOSCALER_VERSION=$(curl -s "https://api.github.com/repos/kubernetes/autoscaler/releases" | grep '"tag_name":' | sed -s 's/.*-\([0-9][0-9\.]*\).*/\1/' | grep -m1 ${K8S_VERSION})

8,查看 Cluster Autoscaler 日志,確認(rèn)部署成功,復(fù)制執(zhí)行以下命令

kubectl -n kube-system logs -f deployment.apps/cluster-autoscaler

9,您也可以通過命令autoscaling命令查看當(dāng)前您的兩個(gè)彈性擴(kuò)展組狀態(tài)。正常情況下,您現(xiàn)在擁有兩個(gè)工作負(fù)載組,一個(gè)是onDemand的集群,最大節(jié)點(diǎn)數(shù)是1,一個(gè)是Spot的集群,最大值是4。當(dāng)大規(guī)模負(fù)載發(fā)生時(shí),會(huì)在Spot的集群進(jìn)行擴(kuò)容。平時(shí)的正常運(yùn)行狀態(tài)是1臺(tái)Stop加2臺(tái)onDemand

請(qǐng)將Value=='xxxx'的odoo替換為您的集群名稱(默認(rèn)為odoo),然后執(zhí)行查看

aws autoscaling \
describe-auto-scaling-groups \
--query "AutoScalingGroups[? Tags[? (Key=='eks:cluster-name') && Value=='pre-production']].[AutoScalingGroupName, MinSize, MaxSize,DesiredCapacity]" \
--output table --region ap-southeast-1

輸出

-----------------------------------------------------------------------------------
|                            DescribeAutoScalingGroups                            |
+------------------------------------------------------------------+----+----+----+
|  eks-pre-production-gnode1-b8c3ba17-d029-f1cb-839b-46478531d530  |  3 |  5 |  3 |
+------------------------------------------------------------------+----+----+----+

?10、部署測(cè)試應(yīng)用,增加副本測(cè)試,或者并發(fā)壓力測(cè)試

參考:

??https://graviton2.awspsa.com/3-%E5%AE%9E%E9%AA%8C3%E9%85%8D%E7%BD%AEeks%E5%BC%B9%E6%80%A7%E9%9B%86%E7%BE%A4%E5%B9%B6%E8%BF%90%E8%A1%8C%E5%8E%8B%E5%8A%9B%E6%B5%8B%E8%AF%95.html??

??https://blog.csdn.net/weixin_41335923/article/details/121486673??文章來源地址http://www.zghlxwxcb.cn/news/detail-842950.html

到了這里,關(guān)于EKS集群的彈性擴(kuò)縮容CA的配置實(shí)戰(zhàn) ·『云原生品鑒與布道』·的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 第?講:Ceph集群OSD擴(kuò)縮容中Reblanceing數(shù)據(jù)的重分布

    第?講:Ceph集群OSD擴(kuò)縮容中Reblanceing數(shù)據(jù)的重分布

    當(dāng)集群中OSD進(jìn)行擴(kuò)縮容操作后,會(huì)觸發(fā)一個(gè)Reblanceing數(shù)據(jù)重分布的機(jī)制,簡(jiǎn)單的理解就是將擴(kuò)縮容前后OSD中的PG在每一個(gè)OSD中進(jìn)行均勻分布,如下圖所示: 在擴(kuò)容前集群有兩個(gè)OSD節(jié)點(diǎn),這兩個(gè)OSD中分布著十個(gè)PG,擴(kuò)容后,集群中有三個(gè)OSD節(jié)點(diǎn),此時(shí)就會(huì)觸發(fā)Reblanceing數(shù)據(jù)重分布

    2024年04月15日
    瀏覽(28)
  • Docker進(jìn)階:mysql 主從復(fù)制、redis集群3主3從【擴(kuò)縮容案例】

    Docker進(jìn)階:mysql 主從復(fù)制、redis集群3主3從【擴(kuò)縮容案例】

    ??The Begin??點(diǎn)點(diǎn)關(guān)注,收藏不迷路?? 首先,確保你已經(jīng)安裝了Docker。 要下載特定版本的Tomcat鏡像,可以在 docker pull 命令后面添加 image_name: tag 參數(shù)。其中 tag 制定了鏡像的版本號(hào)。 解決插入中文報(bào)錯(cuò): 總結(jié): docker安裝完mysql,運(yùn)行實(shí)例之后,建議先修改完字符集編碼后再

    2024年02月10日
    瀏覽(19)
  • 【云原生】AWS創(chuàng)建EKS1.25(Kubernetes)集群

    我這里使用的是 eksctl 命令創(chuàng)建的,更多信息:https://eksctl.io/usage/schema/ 1、編寫 yaml 文件 vim eks-cluster.yaml 2、創(chuàng)建集群 3、本地管理 獲取 config 文件自動(dòng)添加到 ~/.kube/config 使用 kubectl 工具管理集群,現(xiàn)在可以使用 kubectl 工具管理集群了

    2024年02月13日
    瀏覽(26)
  • 云原生之深入解析Thanos在EKS多集群架構(gòu)上存儲(chǔ)多個(gè)集群Prometheus

    隨著 HiredScore 的產(chǎn)品和客戶群越來越大,已經(jīng)開始向 Kubernetes 過渡并迅速采用它,它是我們重要的障礙之一,也可能是最大的監(jiān)控基礎(chǔ)設(shè)施。我們?cè)谑褂?Prometheus / Grafana 堆棧進(jìn)行監(jiān)控方面有一些經(jīng)驗(yàn),了解到希望創(chuàng)建一個(gè)更好、高可用性和彈性的基礎(chǔ)架構(gòu),具有可行且具有成

    2024年02月02日
    瀏覽(28)
  • xfs文件系統(tǒng)擴(kuò)縮容

    ext4文件系統(tǒng)可以進(jìn)行擴(kuò)縮容操作,但xfs的文件系統(tǒng)只能擴(kuò)容,無法直接縮容 所以如果需要進(jìn)行xfs的縮容,可以先使用xfsdump備份文件系統(tǒng),然后對(duì)邏輯卷(/分區(qū))進(jìn)行縮容操作(此時(shí)原xfs文件系統(tǒng)會(huì)損壞),然后再重新格式化該邏輯卷(/分區(qū)),最后xfsrestore將備份還原到該邏輯卷

    2024年02月12日
    瀏覽(20)
  • zookeeper動(dòng)態(tài)擴(kuò)縮容(無需重啟)

    目錄 一、啟動(dòng)一個(gè)zk 二、擴(kuò)容一個(gè)zk 三、縮容一個(gè)zk 四、重新配置集群的節(jié)點(diǎn) 前言: zookeeper動(dòng)態(tài)擴(kuò)/縮容的reconfig命令旨在不需要重啟zookeeper中任何一個(gè)節(jié)點(diǎn)的情況下,對(duì)整個(gè)zookeeper集群進(jìn)行動(dòng)態(tài)擴(kuò)/縮容。 zookeeper客戶端支持的命令: 在實(shí)際驗(yàn)證中發(fā)現(xiàn)一些細(xì)節(jié)問題,先記錄

    2024年02月21日
    瀏覽(26)
  • Kubernetes中Pod的擴(kuò)縮容介紹

    Kubernetes中Pod的擴(kuò)縮容介紹

    在實(shí)際生產(chǎn)系統(tǒng)中,我們經(jīng)常會(huì)遇到某個(gè)服務(wù)需要擴(kuò)容的場(chǎng)景,也可能會(huì)遇到由于資源緊張或者工作負(fù)載降低而需 要減少服務(wù)實(shí)例數(shù)量的場(chǎng)景。此時(shí)可以利用 Deployment/RC 的 Scale 機(jī)制來完成這些工作。 Kubernetes 對(duì) Pod 的擴(kuò)縮容操作提供了手動(dòng)和自動(dòng)兩種模式,手動(dòng)模式通過執(zhí)行

    2024年02月07日
    瀏覽(17)
  • k8s教程(pod篇)-擴(kuò)縮容

    k8s教程(pod篇)-擴(kuò)縮容

    聲明:本文為《Kubernetes權(quán)威指南:從Docker到Kubernetes實(shí)踐全接觸(第5版)》的讀書筆記 在實(shí)際生產(chǎn)系統(tǒng)中,我們經(jīng)常會(huì)遇到某個(gè)服務(wù)需要擴(kuò)容的場(chǎng)景,也可能會(huì)遇到由于資源緊張或者工作負(fù)載降低而需要減少服務(wù)實(shí)例數(shù)量的場(chǎng)景。此時(shí)可以利用 Deployment/RC 的 Scale機(jī)制 來完成

    2024年02月08日
    瀏覽(24)
  • k8s擴(kuò)縮容與滾動(dòng)更新

    k8s擴(kuò)縮容與滾動(dòng)更新

    使用kubectl run創(chuàng)建 應(yīng)用 端口暴露出去 使用kubectl? create 創(chuàng)建應(yīng)用 端口暴露出去 run 與 create 區(qū)別: run 為一次性的創(chuàng)建運(yùn)行,刪除后不會(huì)自動(dòng)生成,沒有 pod 控制器 create 創(chuàng)建的,刪除后還會(huì)自動(dòng)生成,有 pod 控制器,擁有副本集控制 scale 應(yīng)用 默認(rèn)情況下 應(yīng)用只會(huì)運(yùn)行一個(gè)副

    2024年02月12日
    瀏覽(46)
  • 研發(fā)工程師玩轉(zhuǎn)Kubernetes——自動(dòng)擴(kuò)縮容

    研發(fā)工程師玩轉(zhuǎn)Kubernetes——自動(dòng)擴(kuò)縮容

    在《研發(fā)工程師玩轉(zhuǎn)Kubernetes——使用Deployment進(jìn)行多副本維護(hù)》一文中,我們通過Deployment實(shí)現(xiàn)了多副本維護(hù)——即維持在一個(gè)確定數(shù)量的副本個(gè)數(shù)。而在現(xiàn)實(shí)場(chǎng)景中,我們往往需要根據(jù)服務(wù)的壓力,采用水平(橫向)擴(kuò)容的方式——即增加多個(gè)副本,來分擔(dān)壓力。當(dāng)服務(wù)壓力

    2024年02月06日
    瀏覽(18)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包