国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

kubernetes 1.27.3 集群部署方案

這篇具有很好參考價(jià)值的文章主要介紹了kubernetes 1.27.3 集群部署方案。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

一、準(zhǔn)備環(huán)境

1.1 Kubernetes 1.27.3 版本集群部署環(huán)境準(zhǔn)備

1.1.1?主機(jī)硬件配置說(shuō)明

cpu 內(nèi)存 硬盤 角色 主機(jī)名 系統(tǒng)版本

8C

?8G

?1024GB

master

master01

centos 7.9

?8C

?16G

?1024GB

?worker(node)

?worker01

centos 7.9

?8C

?16G

?1024GB

?worker(node)

?worker02

centos 7.9

1.1.2?主機(jī)配置

1.1.2.1 主機(jī)名配置

由于本次使用3臺(tái)主機(jī)完成kubernetes集群部署,其中1臺(tái)為master節(jié)點(diǎn),名稱為master01;其中2臺(tái)為worker節(jié)點(diǎn),名稱分別為:worker01,worker02

master節(jié)點(diǎn)
# hostnamectl set-hostname master01

worker01節(jié)點(diǎn)
# hostnamectl set-hostname worker01

worker02節(jié)點(diǎn)
# hostnamectl set-hostname worker02
1.1.2.2 主機(jī)IP地址配置
1.1.2.3 主機(jī)名與IP地址解析

所有集群主機(jī)均需要進(jìn)行配置

# cat /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.110 master01
192.168.1.111 worker01
192.168.1.112 worker02
1.1.2.4 防火墻配置

所有主機(jī)均需要操作。

關(guān)閉現(xiàn)有防火墻firewalld
# systemctl disable firewalld
# systemctl stop firewalld
# firewall-cmd --state
not running
1.1.2.5 SELINUX配置

所有主機(jī)均需要操作。修改SELinux配置需要重啟操作系統(tǒng)。

# sed -ri 's/SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config
1.1.2.6 時(shí)間同步配置

所有主機(jī)均需要操作。最小化安裝系統(tǒng)需要安裝ntpdate軟件。

# crontab -l
0 */1 * * * /usr/sbin/ntpdate time1.aliyun.com
1.1.2.7 升級(jí)操作系統(tǒng)內(nèi)核

所有主機(jī)均需要操作。

導(dǎo)入elrepo gpg key
# rpm --import https://www.elrepo.org/RPM-GPG-KEY-elrepo.org

安裝elrepo YUM源倉(cāng)庫(kù)
# yum -y install https://www.elrepo.org/elrepo-release-7.0-4.el7.elrepo.noarch.rpm

安裝kernel-ml版本,ml為長(zhǎng)期穩(wěn)定版本,lt為長(zhǎng)期維護(hù)版本
# yum --enablerepo="elrepo-kernel" -y install kernel-lt.x86_64

設(shè)置grub2默認(rèn)引導(dǎo)為0
# grub2-set-default 0

重新生成grub2引導(dǎo)文件
# grub2-mkconfig -o /boot/grub2/grub.cfg

更新后,需要重啟,使用升級(jí)的內(nèi)核生效。

# reboot

重啟后,需要驗(yàn)證內(nèi)核是否為更新對(duì)應(yīng)的版本
# uname -r
1.1.2.8 配置內(nèi)核轉(zhuǎn)發(fā)及網(wǎng)橋過(guò)濾

所有主機(jī)均需要操作。

添加網(wǎng)橋過(guò)濾及內(nèi)核轉(zhuǎn)發(fā)配置文件
# cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
vm.swappiness = 0
EOF

加載br_netfilter模塊
# modprobe br_netfilter

查看是否加載
# lsmod | grep br_netfilter
br_netfilter ? ? ? ? ? 22256 ?0
bridge ? ? ? ? ? ? ? ?151336 ?1 br_netfilter
1.1.2.9 安裝ipset及ipvsadm

所有主機(jī)均需要操作。

# 安裝ipset及ipvsadm
yum -y install ipset ipvsadm

# 配置ipvsadm模塊加載方式
# 添加需要加載的模塊
cat > /etc/sysconfig/modules/ipvs.modules <<EOF
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack
EOF

授權(quán)、運(yùn)行、檢查是否加載
# chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack

1.1.2.10 關(guān)閉SWAP分區(qū)

修改完成后需要重啟操作系統(tǒng),如不重啟,可臨時(shí)關(guān)閉,命令為swapoff -a

永遠(yuǎn)關(guān)閉swap分區(qū),需要重啟操作系統(tǒng)
# cat /etc/fstab
......

# /dev/mapper/centos-swap swap swap defaults 0 0

在上一行中行首添加#

二、容器運(yùn)行時(shí) Containerd準(zhǔn)備

2.1 Containerd準(zhǔn)備

2.1.1 Containerd部署文件獲取

kubernetes 1.27.3 集群部署方案,kubernetes,微服務(wù),kubernetes,容器,云原生

kubernetes 1.27.3 集群部署方案,kubernetes,微服務(wù),kubernetes,容器,云原生

kubernetes 1.27.3 集群部署方案,kubernetes,微服務(wù),kubernetes,容器,云原生

kubernetes 1.27.3 集群部署方案,kubernetes,微服務(wù),kubernetes,容器,云原生

# wget https://github.com/containerd/containerd/releases/download/v1.7.0/cri-containerd-cni-1.7.0-linux-amd64.tar.gz

# tar xf cri-containerd-cni-1.7.0-linux-amd64.tar.gz -C /

2.1.2 Containerd配置文件生成并修改

# mkdir /etc/containerd

# containerd config default > /etc/containerd/config.toml

# vim /etc/containerd/config.toml

sandbox_image = "registry.k8s.io/pause:3.9" 由3.8修改為3.9

2.1.3 Containerd啟動(dòng)及開機(jī)自啟動(dòng)

# systemctl enable --now containerd

驗(yàn)證其版本
# containerd --version

2.2 runc準(zhǔn)備

kubernetes 1.27.3 集群部署方案,kubernetes,微服務(wù),kubernetes,容器,云原生

kubernetes 1.27.3 集群部署方案,kubernetes,微服務(wù),kubernetes,容器,云原生

kubernetes 1.27.3 集群部署方案,kubernetes,微服務(wù),kubernetes,容器,云原生

2.2.1 libseccomp準(zhǔn)備

kubernetes 1.27.3 集群部署方案,kubernetes,微服務(wù),kubernetes,容器,云原生

# wget https://github.com/opencontainers/runc/releases/download/v1.1.5/libseccomp-2.5.4.tar.gz

# tar xf libseccomp-2.5.4.tar.gz

# cd libseccomp-2.5.4/

# yum install gperf -y

# ./configure && make && make install

# find / -name "libseccomp.so"

2.2.2 runc安裝

kubernetes 1.27.3 集群部署方案,kubernetes,微服務(wù),kubernetes,容器,云原生

# wget https://github.com/opencontainers/runc/releases/download/v1.1.5/runc.amd64

# chmod +x runc.amd64

查找containerd安裝時(shí)已安裝的runc所在的位置,然后替換
# which runc

替換containerd安裝已安裝的runc
# mv runc.amd64 /usr/local/sbin/runc

執(zhí)行runc命令,如果有命令幫助則為正常
# runc

如果運(yùn)行runc命令時(shí)提示:runc: error while loading shared libraries: libseccomp.so.2: cannot open shared object file: No such file or directory,則表明runc沒(méi)有找到libseccomp,需要檢查libseccomp是否安裝,本次安裝默認(rèn)就可以查詢到。

三、K8S集群部署

3.1 K8S集群軟件YUM源準(zhǔn)備

# cat > /etc/yum.repos.d/k8s.repo <<EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

3.2 K8S集群軟件安裝

3.2.1 集群軟件安裝

所有節(jié)點(diǎn)均要安裝

安裝方法-:

默認(rèn)安裝
# yum -y install kubeadm kubelet kubectl
安裝方法二:

查看指定版本
# yum list kubeadm.x86_64 --showduplicates | sort -r
# yum list kubelet.x86_64 --showduplicates | sort -r
# yum list kubectl.x86_64 --showduplicates | sort -r


安裝指定版本
# yum -y install ?kubeadm-1.27.3-0 ?kubelet-1.27.3-0 kubectl-1.27.3-0

3.2.2 配置kubelet

為了實(shí)現(xiàn)docker使用的cgroupdriver與kubelet使用的cgroup的一致性,建議修改如下文件內(nèi)容。

# vim /etc/sysconfig/kubelet
KUBELET_EXTRA_ARGS="--cgroup-driver=systemd"


設(shè)置kubelet為開機(jī)自啟動(dòng)即可,由于沒(méi)有生成配置文件,集群初始化后自動(dòng)啟動(dòng)
# systemctl enable kubelet

3.3 K8S集群初始化

[root@master01 ~]# kubeadm init --kubernetes-version=v1.27.3 --pod-network-cidr=10.200.0.0/16 --apiserver-advertise-address=192.168.1.110 --cri-socket unix:///var/run/containerd/containerd.sock
[init] Using Kubernetes version: v1.27.0
[preflight] Running pre-flight checks
[preflight] Pulling images required for setting up a Kubernetes cluster
[preflight] This might take a minute or two, depending on the speed of your internet connection
[preflight] You can also perform this action in beforehand using 'kubeadm config images pull'
[certs] Using certificateDir folder "/etc/kubernetes/pki"
[certs] Generating "ca" certificate and key
[certs] Generating "apiserver" certificate and key
[certs] apiserver serving cert is signed for DNS names [master01 kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] and IPs [10.96.0.1 192.168.10.160]
[certs] Generating "apiserver-kubelet-client" certificate and key
[certs] Generating "front-proxy-ca" certificate and key
[certs] Generating "front-proxy-client" certificate and key
[certs] Generating "etcd/ca" certificate and key
[certs] Generating "etcd/server" certificate and key
[certs] etcd/server serving cert is signed for DNS names [master01 localhost] and IPs [192.168.10.160 127.0.0.1 ::1]
[certs] Generating "etcd/peer" certificate and key
[certs] etcd/peer serving cert is signed for DNS names [master01 localhost] and IPs [192.168.10.160 127.0.0.1 ::1]
[certs] Generating "etcd/healthcheck-client" certificate and key
[certs] Generating "apiserver-etcd-client" certificate and key
[certs] Generating "sa" key and public key
[kubeconfig] Using kubeconfig folder "/etc/kubernetes"
[kubeconfig] Writing "admin.conf" kubeconfig file
[kubeconfig] Writing "kubelet.conf" kubeconfig file
[kubeconfig] Writing "controller-manager.conf" kubeconfig file
[kubeconfig] Writing "scheduler.conf" kubeconfig file
[kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet-start] Starting the kubelet
[control-plane] Using manifest folder "/etc/kubernetes/manifests"
[control-plane] Creating static Pod manifest for "kube-apiserver"
[control-plane] Creating static Pod manifest for "kube-controller-manager"
[control-plane] Creating static Pod manifest for "kube-scheduler"
[etcd] Creating static Pod manifest for local etcd in "/etc/kubernetes/manifests"
[wait-control-plane] Waiting for the kubelet to boot up the control plane as static Pods from directory "/etc/kubernetes/manifests". This can take up to 4m0s
[apiclient] All control plane components are healthy after 20.502191 seconds
[upload-config] Storing the configuration used in ConfigMap "kubeadm-config" in the "kube-system" Namespace
[kubelet] Creating a ConfigMap "kubelet-config" in namespace kube-system with the configuration for the kubelets in the cluster
[upload-certs] Skipping phase. Please see --upload-certs
[mark-control-plane] Marking the node master01 as control-plane by adding the labels: [node-role.kubernetes.io/control-plane node.kubernetes.io/exclude-from-external-load-balancers]
[mark-control-plane] Marking the node master01 as control-plane by adding the taints [node-role.kubernetes.io/control-plane:NoSchedule]
[bootstrap-token] Using token: hd74hg.r8l1pe4tivwyjz73
[bootstrap-token] Configuring bootstrap tokens, cluster-info ConfigMap, RBAC Roles
[bootstrap-token] Configured RBAC rules to allow Node Bootstrap tokens to get nodes
[bootstrap-token] Configured RBAC rules to allow Node Bootstrap tokens to post CSRs in order for nodes to get long term certificate credentials
[bootstrap-token] Configured RBAC rules to allow the csrapprover controller automatically approve CSRs from a Node Bootstrap Token
[bootstrap-token] Configured RBAC rules to allow certificate rotation for all node client certificates in the cluster
[bootstrap-token] Creating the "cluster-info" ConfigMap in the "kube-public" namespace
[kubelet-finalize] Updating "/etc/kubernetes/kubelet.conf" to point to a rotatable kubelet client certificate and key
[addons] Applied essential addon: CoreDNS
[addons] Applied essential addon: kube-proxy

Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

Alternatively, if you are the root user, you can run:

export KUBECONFIG=/etc/kubernetes/admin.conf

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
https://kubernetes.io/docs/concepts/cluster-administration/addons/

Then you can join any number of worker nodes by running the following on each as root:

kubeadm join 192.168.1.110:6443 --token pm3ekl.y03qqkqxix111zp4 \
--discovery-token-ca-cert-hash sha256:c4aa683f5a5d7dc805e1c7966b8495485ff61cca88537f091c5bd7c996e8dbec
[root@worker01 ~]# mkdir /root/.kube

[root@worker01 ~]# cp -i /etc/kubernetes/admin.conf /root/.kube/config

3.4 工作節(jié)點(diǎn)加入集群

[root@worker01 ~]# kubeadm join 192.168.1.110:6443 --token pm3ekl.y03qqkqxix111zp4 \
> --discovery-token-ca-cert-hash sha256:c4aa683f5a5d7dc805e1c7966b8495485ff61cca88537f091c5bd7c996e8dbec --cri-socket unix:///var/run/containerd/containerd.sock
[root@worker02 ~]# kubeadm join 192.168.1.110:6443 --token pm3ekl.y03qqkqxix111zp4 \
> --discovery-token-ca-cert-hash sha256:c4aa683f5a5d7dc805e1c7966b8495485ff61cca88537f091c5bd7c996e8dbec --cri-socket unix:///var/run/containerd/containerd.sock

3.5 驗(yàn)證K8S集群節(jié)點(diǎn)是否可用

[root@master01 ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
master01 Ready control-plane 15m v1.27.3
worker01 Ready <none> 13m v1.27.3
worker02 Ready <none> 13m v1.27.3

四、網(wǎng)絡(luò)插件calico部署

calico訪問(wèn)鏈接:https://projectcalico.docs.tigera.io/about/about-calico

kubernetes 1.27.3 集群部署方案,kubernetes,微服務(wù),kubernetes,容器,云原生

kubernetes 1.27.3 集群部署方案,kubernetes,微服務(wù),kubernetes,容器,云原生

 
# wget https://raw.githubusercontent.com/projectcalico/calico/v3.25.1/manifests/tigera-operator.yaml
# wget https://raw.githubusercontent.com/projectcalico/calico/v3.25.1/manifests/custom-resources.yaml
# vim custom-resources.yaml


# cat custom-resources.yaml


# This section includes base Calico installation configuration.
# For more information, see: https://projectcalico.docs.tigera.io/master/reference/installation/api#operator.tigera.io/v1.Installation
apiVersion: operator.tigera.io/v1
kind: Installation
metadata:
name: default
spec:
# Configures Calico networking.
calicoNetwork:
# Note: The ipPools section cannot be modified post-install.
ipPools:
- blockSize: 26
cidr: 10.200.0.0/16 修改此行內(nèi)容為初始化時(shí)定義的pod network cidr
encapsulation: VXLANCrossSubnet
natOutgoing: Enabled
nodeSelector: all()

---

# This section configures the Calico API server.
# For more information, see: https://projectcalico.docs.tigera.io/master/reference/installation/api#operator.tigera.io/v1.APIServer
apiVersion: operator.tigera.io/v1
kind: APIServer
metadata:
name: default
spec: {}
# kubectl create -f tigera-operator.yaml

。。。。。。



# kubectl create -f custom-resources.yaml

installation.operator.tigera.io/default created
apiserver.operator.tigera.io/default created
[root@master01 ~]# kubectl get pods -n calico-system
NAME READY STATUS RESTARTS AGE

calico-kube-controllers-789dc4c76b-7gt8p? ?1/1? ? ?Running? ?0? ? ? ? ? 9m

calico-node-448bf? ? ? ? ? ? ? ? ? ? ? ? ? 1/1? ? ?Running? ?0? ? ? ? ? 9m

calico-node-4hqt7? ? ? ? ? ? ? ? ? ? ? ? ? 1/1? ? ?Running? ?0? ? ? ? ? 9m

calico-node-4j84d? ? ? ? ? ? ? ? ? ? ? ? ? 1/1? ? ?Running? ?0? ? ? ? ? 9m

calico-typha-55b5588bd6-d7xrf? ? ? ? ? ? ? 1/1? ? ?Running? ?0? ? ? ? ? 9m

calico-typha-55b5588bd6-q9jtx? ? ? ? ? ? ? 1/1? ? ?Running? ?0? ? ? ? ? 9m

csi-node-driver-6zgps? ? ? ? ? ? ? ? ? ? ? 2/2? ? ?Running? ?0? ? ? ? ? 9m

csi-node-driver-9zvhr? ? ? ? ? ? ? ? ? ? ? 2/2? ? ?Running? ?0? ? ? ? ? 9m

csi-node-driver-z2cfp? ? ? ? ? ? ? ? ? ? ? 2/2? ? ?Running? ?0? ? ? ? ? 9m

?文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-553788.html

到了這里,關(guān)于kubernetes 1.27.3 集群部署方案的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【云原生|Kubernetes】02-Kubeadm安裝部署Kubernetes集群

    【云原生|Kubernetes】02-Kubeadm安裝部署Kubernetes集群

    前面簡(jiǎn)單介紹了Kubernetes的相關(guān)架構(gòu)及其組件,這一章節(jié)我們將介紹如何快速搭建Kubernetes的集群,這里我們將使用官方支持的用于部署 Kubernetes 的工具— kubeadm。 主機(jī)名 ip地址 節(jié)點(diǎn)類型 系統(tǒng)版本 master.example.com 192.168.194.128 master,etcd centos7.x node1.example.com 192.168.194.130 node1 cent

    2024年02月03日
    瀏覽(23)
  • 【華為云云耀云服務(wù)器L實(shí)例評(píng)測(cè)】- 云原生實(shí)踐,快捷部署人才招聘平臺(tái)容器化技術(shù)方案!

    【華為云云耀云服務(wù)器L實(shí)例評(píng)測(cè)】- 云原生實(shí)踐,快捷部署人才招聘平臺(tái)容器化技術(shù)方案!

    ???♂? 個(gè)人主頁(yè): @AI_magician ??主頁(yè)地址: 作者簡(jiǎn)介:CSDN內(nèi)容合伙人,全棧領(lǐng)域優(yōu)質(zhì)創(chuàng)作者。 ?????景愿:旨在于能和更多的熱愛(ài)計(jì)算機(jī)的伙伴一起成長(zhǎng)!!????? ???♂?聲明:本人目前大學(xué)就讀于大二,研究興趣方向人工智能硬件(雖然硬件還沒(méi)開始玩,但一直

    2024年02月07日
    瀏覽(91)
  • 云原生之容器編排實(shí)踐-基于CentOS7搭建三個(gè)節(jié)點(diǎn)的Kubernetes集群

    云原生之容器編排實(shí)踐-基于CentOS7搭建三個(gè)節(jié)點(diǎn)的Kubernetes集群

    前面采用 minikube 作為 Kubernetes 環(huán)境來(lái)體驗(yàn)學(xué)習(xí) Kubernetes 基本概念與操作,這樣避免了初學(xué)者在裸金屬主機(jī)上搭建 Kubernetes 集群的復(fù)雜度,但是隨著產(chǎn)品功能的逐漸完善,我們需要過(guò)渡到生產(chǎn)環(huán)境中的 K8S 集群模式;而在實(shí)際上生產(chǎn)環(huán)境之前,我們先在本地虛擬機(jī)上進(jìn)行了環(huán)境

    2024年02月19日
    瀏覽(23)
  • 云原生|kubernetes|kubernetes集群部署神器kubekey安裝部署高可用k8s集群(半離線形式)

    云原生|kubernetes|kubernetes集群部署神器kubekey安裝部署高可用k8s集群(半離線形式)

    前面利用kubekey部署了一個(gè)簡(jiǎn)單的非高可用,etcd單實(shí)例的kubernetes集群,經(jīng)過(guò)研究,發(fā)現(xiàn)部署過(guò)程可以簡(jiǎn)化,省去了一部分下載過(guò)程(主要是下載kubernetes組件的過(guò)程)只是kubernetes版本會(huì)固定在1.22.16版本,etcd集群可以部署成生產(chǎn)用的外部集群,并且apiserver等等組件也是高可用,

    2024年02月15日
    瀏覽(28)
  • 云原生、容器化、Kubernetes、微服務(wù)

    作者:禪與計(jì)算機(jī)程序設(shè)計(jì)藝術(shù) 云原生(Cloud Native)是一個(gè)開放且社區(qū)驅(qū)動(dòng)的項(xiàng)目,它定義了一組架構(gòu)原則、最佳實(shí)踐和工具集,這些原則、實(shí)踐和工具圍繞業(yè)務(wù)需求和工程實(shí)踐而設(shè)計(jì),可用于開發(fā)人員在構(gòu)建和運(yùn)行分布式系統(tǒng)時(shí)更加順暢地交付可靠的軟件。云原生可以幫助

    2024年02月07日
    瀏覽(28)
  • 云原生之在kubernetes集群下部署Mysql應(yīng)用

    云原生之在kubernetes集群下部署Mysql應(yīng)用

    數(shù)據(jù)庫(kù)(Database)是按照數(shù)據(jù)結(jié)構(gòu)來(lái)組織、存儲(chǔ)和管理數(shù)據(jù)的倉(cāng)庫(kù)。MySQL是一種開源的關(guān)系型數(shù)據(jù)庫(kù)管理系統(tǒng),可將數(shù)據(jù)保存在不同的表中,而不是將所有數(shù)據(jù)放在一個(gè)大的倉(cāng)庫(kù)內(nèi),從而加快了訪問(wèn)速度并提高了靈活性。MySQL 使用了標(biāo)準(zhǔn)的 SQL 語(yǔ)言形式。支持大型的數(shù)據(jù)庫(kù),可

    2024年02月12日
    瀏覽(18)
  • 【基于容器的部署、擴(kuò)展和管理】3.1 容器編排系統(tǒng)和Kubernetes集群的構(gòu)建

    【基于容器的部署、擴(kuò)展和管理】3.1 容器編排系統(tǒng)和Kubernetes集群的構(gòu)建

    往期回顧: 第一章:【云原生概念和技術(shù)】 第二章:【容器化應(yīng)用程序設(shè)計(jì)和開發(fā)】 基于容器的部署、擴(kuò)展和管理是一種現(xiàn)代軟件開發(fā)和部署的方式,它提供了快速、可重復(fù)、可移植的開發(fā)和部署流程,同時(shí)也簡(jiǎn)化了應(yīng)用程序的擴(kuò)展和管理。 在基于容器的部署中,應(yīng)用程序

    2024年02月08日
    瀏覽(53)
  • 云原生|kubernetes|kubernetes集群部署神器kubekey的初步使用(centos7下的kubekey使用)

    云原生|kubernetes|kubernetes集群部署神器kubekey的初步使用(centos7下的kubekey使用)

    kubernetes集群的安裝部署是學(xué)習(xí)kubernetes所需要面對(duì)的第一個(gè)難關(guān),確實(shí)是非常不好部署的,尤其是二進(jìn)制方式,雖然有minikube,kubeadm大大的簡(jiǎn)化了kubernetes的部署難度,那么,針對(duì)我們的學(xué)習(xí)環(huán)境或者測(cè)試環(huán)境,我們應(yīng)該如何能夠快速的,簡(jiǎn)單的,非常優(yōu)雅的部署一個(gè)學(xué)習(xí)或者

    2024年02月16日
    瀏覽(25)
  • [云原生案例2.1 ] Kubernetes的部署安裝 【單master集群架構(gòu) ---- (二進(jìn)制安裝部署)】節(jié)點(diǎn)部分

    [云原生案例2.1 ] Kubernetes的部署安裝 【單master集群架構(gòu) ---- (二進(jìn)制安裝部署)】節(jié)點(diǎn)部分

    Minikube是一個(gè)工具,可以在本地快速運(yùn)行一個(gè)單節(jié)點(diǎn)微型K8S,僅用于學(xué)習(xí)、預(yù)覽K8S的一些特性使用。 Kubeadm也是一個(gè)工具,提供kubeadm init和kubeadm join,用于快速部署K8S集群,相對(duì)簡(jiǎn)單。 生產(chǎn)首選,從官方下載發(fā)行版的二進(jìn)制包,手動(dòng)部署每個(gè)組件和自簽TLS證書,組成K8S集群,

    2024年02月05日
    瀏覽(48)
  • 云原生|kubernetes|centos7下的kubeadm部署的集群內(nèi)在線部署kubesphere(外部etcd)

    云原生|kubernetes|centos7下的kubeadm部署的集群內(nèi)在線部署kubesphere(外部etcd)

    本文將主要就在centos7操作系統(tǒng)下已有的一個(gè)利用kubeadm部署的集群內(nèi)在線安裝kubesphere做一個(gè)介紹,該kubernetes集群是使用的etcd外部集群。 kubernetes集群的搭建本文不做過(guò)多介紹,具體的搭建流程見我的博客: 云原生|kubernetes|kubeadm部署高可用集群(一)使用外部etcd集群_kubeadm

    2024年02月11日
    瀏覽(23)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包