国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

kafka3.4.0版本升級--helm部署

這篇具有很好參考價值的文章主要介紹了kafka3.4.0版本升級--helm部署。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

kafka3.4.0版本升級–helm部署

前言

最近由于kafka的漏洞需要升級至3.4.0版本,之前由于不是helm部署,升級起來出現(xiàn)了權(quán)限問題、掛盤問題,在k8s搞了許久都搞不定,狠下心來,直接來一波helm安裝,在2月份的時候,helm官網(wǎng)已推出chart-21.0.1包(https://artifacthub.io/packages/helm/bitnami/kafka)。用chart-21.0.1包準備開搞。

helm 安裝kafka

helm 安裝kafka比較簡單,便不多說,官網(wǎng)有相應(yīng)的說明,簡單來說就是下載個chart包,在helm環(huán)境下執(zhí)行helm安裝即可。

helm repo add bitnami https://charts.bitnami.com/bitnami
helm install my-kafka bitnami/kafka --version 21.0.1

當(dāng)然,這樣安裝是默認value.yaml的配置,但是對于實際應(yīng)用,并非如此簡單,我們要看懂實際部署的需求,比如,掛盤要求,service、端口等都是要根據(jù)實際生產(chǎn)或者說之前版本調(diào)整的。所以接下來要對value.yaml進行配置,配置屬于自己“獨一無二”的kafka。

“獨一無二”的value.yaml

先說明下kafka實際要求:

  1. 3個pod
  2. storageClass為:xxx-xxx-xxx
  3. 需要外界訪問

修改默認的value.yaml部分配置:

  1. 全局配置修改:
global:
  imageRegistry: ""
  ## E.g.
  ## imagePullSecrets:
  ##   - myRegistryKeySecretName
  ##
  imagePullSecrets: []
  storageClass: "xxx-xxx-xxx "
  1. 修改鏡像
    這個比較簡單,一般單位的服務(wù)器是沒法直接連外網(wǎng)的,所以都會有自己的hub鏡像倉庫,所以先得從外網(wǎng)拉取鏡像到自己倉庫,然后將下列鏡像改為自己的鏡像。需要修改kakfa(bitnami/kafka:3.4.0-debian-11-r2)、zookeeper(zookeeper:3.8.1-debian-11-r0)、kubectl(kubectl:1.25.6-debian-11-r10)鏡像:以kakfa修改為例:
image:
  registry: hubtest.xxx.com.cn
  repository: xxx/
  tag: bitnami/kafka:3.4.0-debian-11-r2
  digest: ""  #無需填
  1. 設(shè)置副本數(shù)
replicaCount: 3
  1. 補充資源配置
    一定要在resources這一步補充資源配置,不然pod是啟動不了的,那就蛋疼了。
resources:
  requests:
    memory: "64Mi"
    cpu: "250m"
  limits:
    memory: "1280Mi"
    cpu: "500m"
  1. 啟動集群外部訪問kafka–開啟externalAccess
    這一步非常關(guān)鍵,因為一般應(yīng)用日志會往kafka上吐,這就是給應(yīng)用或者filebeat提供吐的入口。做了以下修改:
    externalAccess中enabled 設(shè)置為 true,autoDiscovery:設(shè)置為true
    kubectl鏡像設(shè)置為本地倉庫鏡像
    service type設(shè)置為: NodePort
    (因為有F5作為負載均衡,所以就不用k8s service自帶的LoadBalancer,只要求暴露端口就行,所以就采用nodeport方式。)
    添加resource資源
    nodePorts:
    • 30001
    • 30002
    • 30003
      注意:個數(shù)要和副本數(shù)(3)一樣
      有個巨坑得和大家說說說,配置中有這么一句話Note: RBAC might be required
      也就是當(dāng)你啟動externalAccess,啟動helm的要帶上一個參數(shù),不然會報關(guān)于RBAC的錯誤,加上以下一行就行。
      –set rbac.create=true
      如果是rancher 自帶的helm可視化部署,直接在命令那一行輸入rbac.create=true
      訪問方式:
      :9094 或者:30001
      具體修改如下:
## External Access to Kafka brokers configuration
##
externalAccess:
  ## @param externalAccess.enabled Enable Kubernetes external cluster access to Kafka brokers
  ##
  enabled: true
  ## External IPs auto-discovery configuration
  ## An init container is used to auto-detect LB IPs or node ports by querying the K8s API
  ## Note: RBAC might be required
  ##
  autoDiscovery:
    ## @param externalAccess.autoDiscovery.enabled Enable using an init container to auto-detect external IPs/ports by querying the K8s API
    ##
    enabled: true
    ## Bitnami Kubectl image
    ## ref: https://hub.docker.com/r/bitnami/kubectl/tags/
    ## @param externalAccess.autoDiscovery.image.registry Init container auto-discovery image registry
    ## @param externalAccess.autoDiscovery.image.repository Init container auto-discovery image repository
    ## @param externalAccess.autoDiscovery.image.tag Init container auto-discovery image tag (immutable tags are recommended)
    ## @param externalAccess.autoDiscovery.image.digest Kubectl image digest in the way sha256:aa.... Please note this parameter, if set, will override the tag
    ## @param externalAccess.autoDiscovery.image.pullPolicy Init container auto-discovery image pull policy
    ## @param externalAccess.autoDiscovery.image.pullSecrets Init container auto-discovery image pull secrets
    ##
    image:
      registry: hubtest.xxx.com.cn
      repository: bitnami/kubectl
      tag: 1.25.6-debian-11-r10
      digest: ""
      ## Specify a imagePullPolicy
      ## Defaults to 'Always' if image tag is 'latest', else set to 'IfNotPresent'
      ## ref: https://kubernetes.io/docs/user-guide/images/#pre-pulling-images
      ##
      pullPolicy: IfNotPresent
      ## Optionally specify an array of imagePullSecrets (secrets must be manually created in the namespace)
      ## ref: https://kubernetes.io/docs/tasks/configure-pod-container/pull-image-private-registry/
      ## e.g:
      ## pullSecrets:
      ##   - myRegistryKeySecretName
      ##
      pullSecrets: []
    ## Init Container resource requests and limits
    ## ref: https://kubernetes.io/docs/user-guide/compute-resources/
    ## @param externalAccess.autoDiscovery.resources.limits The resources limits for the auto-discovery init container
    ## @param externalAccess.autoDiscovery.resources.requests The requested resources for the auto-discovery init container
    ##
    resources:
      requests:
        memory: "64Mi"
        cpu: "250m"
      limits:
        memory: "1280Mi"
        cpu: "500m"
  ## Parameters to configure K8s service(s) used to externally access Kafka brokers
  ## Note: A new service per broker will be created
  ##
  service:
    ## @param externalAccess.service.type Kubernetes Service type for external access. It can be NodePort, LoadBalancer or ClusterIP
    ##
    type: NodePort
    ## @param externalAccess.service.ports.external Kafka port used for external access when service type is LoadBalancer
    ##
    ports:
      external: 9094
    ## @param externalAccess.service.loadBalancerIPs Array of load balancer IPs for each Kafka broker. Length must be the same as replicaCount
    ## e.g:
    ## loadBalancerIPs:
    ##   - X.X.X.X
    ##   - Y.Y.Y.Y
    ##
    loadBalancerIPs: []
    ## @param externalAccess.service.loadBalancerNames Array of load balancer Names for each Kafka broker. Length must be the same as replicaCount
    ## e.g:
    ## loadBalancerNames:
    ##   - broker1.external.example.com
    ##   - broker2.external.example.com
    ##
    loadBalancerNames: []
    ## @param externalAccess.service.loadBalancerAnnotations Array of load balancer annotations for each Kafka broker. Length must be the same as replicaCount
    ## e.g:
    ## loadBalancerAnnotations:
    ##   - external-dns.alpha.kubernetes.io/hostname: broker1.external.example.com.
    ##   - external-dns.alpha.kubernetes.io/hostname: broker2.external.example.com.
    ##
    loadBalancerAnnotations: []
    ## @param externalAccess.service.loadBalancerSourceRanges Address(es) that are allowed when service is LoadBalancer
    ## ref: https://kubernetes.io/docs/tasks/access-application-cluster/configure-cloud-provider-firewall/#restrict-access-for-loadbalancer-service
    ## e.g:
    ## loadBalancerSourceRanges:
    ## - 10.10.10.0/24
    ##
    loadBalancerSourceRanges: []
    ## @param externalAccess.service.nodePorts Array of node ports used for each Kafka broker. Length must be the same as replicaCount
    ## e.g:
    ## nodePorts:
    ##   - 30001
    ##   - 30002
    ##
    nodePorts: 
      - 30001
      - 30002
      - 30003
    ## @param externalAccess.service.useHostIPs Use service host IPs to configure Kafka external listener when service type is NodePort
    ##
    useHostIPs: false
    ## @param externalAccess.service.usePodIPs using the MY_POD_IP address for external access.
    ##
    usePodIPs: false
    ## @param externalAccess.service.domain Domain or external ip used to configure Kafka external listener when service type is NodePort or ClusterIP
    ## NodePort: If not specified, the container will try to get the kubernetes node external IP
    ## ClusterIP: Must be specified, ingress IP or domain where tcp for external ports is configured
    ##
    domain: ""
    ## @param externalAccess.service.publishNotReadyAddresses Indicates that any agent which deals with endpoints for this Service should disregard any indications of ready/not-ready
    ## ref: https://kubernetes.io/docs/reference/kubernetes-api/service-resources/service-v1/
    publishNotReadyAddresses: false
    ## @param externalAccess.service.labels Service labels for external access
    ##
    labels: {}
    ## @param externalAccess.service.annotations Service annotations for external access
    ##
    annotations: {}
    ## @param externalAccess.service.extraPorts Extra ports to expose in the Kafka external service
    ##
    extraPorts: []

參數(shù)詳細見官網(wǎng)和一個不錯的文章:
https://artifacthub.io/packages/helm/bitnami/kafka https://www.cnblogs.com/east4ming/p/17017779.html文章來源地址http://www.zghlxwxcb.cn/news/detail-597693.html

到了這里,關(guān)于kafka3.4.0版本升級--helm部署的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • Kafka3.0.0版本——集群部署(linux環(huán)境-centos7)

    Kafka3.0.0版本——集群部署(linux環(huán)境-centos7)

    三臺服務(wù)器 服務(wù)器名稱 服務(wù)器ip centos7虛擬機1 192.168.136.27 centos7虛擬機2 192.168.136.28 centos7虛擬機3 192.168.136.29 Zookeeper集群安裝參考此博文鏈接:https://wwwxz.blog.csdn.net/article/details/129280956?spm=1001.2014.3001.5502 3.1、官網(wǎng)下載地址 官網(wǎng)下載地址:http://kafka.apache.org/downloads.html 3.2、下載

    2024年02月04日
    瀏覽(18)
  • kafka3.4.0集群搭建(無zookeeper)

    kafka3.4.0集群搭建(無zookeeper)

    注意:低版本需要安裝zookeeper,在2.8及以上可移除zookeeper 前往官網(wǎng)下載 ?。?!不要下載src文件 1.解壓文件 tar xzf kafka_2.13-3.4.0.tgz 進入文件 cd kafka_2.13-3.4.0 進入 cd config/kraft 2.修改server.properties以下屬性 vim server.properties 3.我們需要在啟動服務(wù)器之前創(chuàng)建kafka集群id。執(zhí)行下列命令

    2024年02月03日
    瀏覽(25)
  • 大數(shù)據(jù) Ranger2.1.0 適配 Kafka3.4.0

    大數(shù)據(jù) Ranger2.1.0 適配 Kafka3.4.0

    根據(jù)官方說明Kafka3.0以上版本將會被替換權(quán)限認證方式,包括 類和方法 的變換,所以需要對ranger中繼承 kafka 的實現(xiàn)中,修改相應(yīng)的邏輯 Kafka3.0以上版本將會被替換權(quán)限認證方式,包括 類和方法 的變換, Github PR https://github.com/apache/kafka/pull/10450 apache-rangerpom.xml,該文件中主要

    2024年02月08日
    瀏覽(18)
  • kafka3.4.0單機版安裝配置教程(kraft模式舍棄ZK)

    kafka3.4.0單機版安裝配置教程(kraft模式舍棄ZK)

    下載地址:https://archive.apache.org/dist/kafka/3.4.0/

    2024年04月17日
    瀏覽(20)
  • 【中間件】消息中間件之Kafka

    一、概念介紹 Apache Kafka是一個分布式流處理平臺,用于構(gòu)建實時數(shù)據(jù)管道和流應(yīng)用。它可以處理網(wǎng)站、應(yīng)用或其他來源產(chǎn)生的大量數(shù)據(jù)流,并能實時地將這些數(shù)據(jù)流傳輸?shù)搅硪粋€系統(tǒng)或應(yīng)用中進行處理。 核心概念: Topic(主題) :消息的分類,用于區(qū)分不同的業(yè)務(wù)消息。

    2024年01月20日
    瀏覽(43)
  • 中間件 kafka

    Kafka(Apache Kafka)是一個非常流行的開源分布式流數(shù)據(jù)平臺。它最初由LinkedIn開發(fā),后來捐贈給了Apache基金會,并成為頂級項目。Kafka被設(shè)計用于處理實時數(shù)據(jù)流,具有高吞吐量、可擴展性和持久性。 Kafka 的主要特點和用途包括: 發(fā)布-訂閱模型: Kafka 提供了一種發(fā)布-訂閱(

    2024年02月13日
    瀏覽(21)
  • 消息中間件(二)——kafka

    消息中間件(二)——kafka

    在大數(shù)據(jù)中,會使用到大量的數(shù)據(jù)。面對這些海量的數(shù)據(jù),我們一是需要做到能夠 收集 這些數(shù)據(jù),其次是要能夠 分析和處理 這些海量數(shù)據(jù)。在此過程中,需要一套消息系統(tǒng)。 Kafka專門為分 布式高吞吐量 系統(tǒng)設(shè)計。作為一個消息代理的替代品,Kafka往往做的比其他消息中間

    2024年02月07日
    瀏覽(29)
  • 中間件(三)- Kafka(二)

    中間件(三)- Kafka(二)

    6.1 Kafka的高效讀寫 順序?qū)懘疟P Kafka的producer生產(chǎn)數(shù)據(jù),需要寫入到log文件中,寫的過程是追加到文件末端,順序?qū)懙姆绞?,官網(wǎng)有數(shù)據(jù)表明,同樣的磁盤,順序?qū)懩軌虻?00M/s,而隨機寫只有200K/s,這與磁盤的機械結(jié)構(gòu)有關(guān),順序?qū)懼钥?,是因為其省去了大量磁頭尋址的時

    2024年02月07日
    瀏覽(22)
  • 大數(shù)據(jù)中間件——Kafka

    大數(shù)據(jù)中間件——Kafka

    Kafka安裝配置 首先我們把kafka的安裝包上傳到虛擬機中: 解壓到對應(yīng)的目錄并修改對應(yīng)的文件名: 首先我們來到kafka的config目錄,我們第一個要修改的文件就是server.properties文件,修改內(nèi)容如下: 主要修改三個部分,一個是唯一標識id,kafka的文件存儲路徑,一個是zookeeper的節(jié)

    2024年02月07日
    瀏覽(23)
  • 消息中間件 —— 初識Kafka

    消息中間件 —— 初識Kafka

    1.1.1、為什么要有消息隊列? 1.1.2、消息隊列 消息 Message 網(wǎng)絡(luò)中的兩臺計算機或者兩個通訊設(shè)備之間傳遞的數(shù)據(jù)。例如說:文本、音樂、視頻等內(nèi)容。 隊列 Queue 一種特殊的線性表(數(shù)據(jù)元素首尾相接),特殊之處在于只允許在首部刪除元素和在尾部追加元素(FIFO)。 入隊、出

    2024年02月13日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包