国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Rocketmq、Rabbitmq、Kafka、Mongo、Elasticsearch、Logstash、Kibana、Nacos、Skywalking、Seata、Spark、Zookeeper安裝

這篇具有很好參考價(jià)值的文章主要介紹了Rocketmq、Rabbitmq、Kafka、Mongo、Elasticsearch、Logstash、Kibana、Nacos、Skywalking、Seata、Spark、Zookeeper安裝。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

提示:寶塔面板安裝docker/docker-compose,一條命令搞定rabbitmq的安裝與配置


前言

已經(jīng)安裝好了寶塔面板、并且可以在Docker欄目,選擇docker安裝,會把docker和docker-compose都安裝好了
Rocketmq、Rabbitmq、Kafka、Mongo、Elasticsearch、Logstash、Kibana、Nacos、Skywalking、Seata、Spark、Zookeeper安裝


一、docker-compose.yml配置

在任意一個(gè)目錄下創(chuàng)建并編輯

vim docker-compose.yml

配置粘貼

version: '3.8'
services:
  rabbitmq:
    image: rabbitmq:3.7.25-management
    container_name: rabbitmq
    volumes:
      - /mydata/rabbitmq/data:/var/lib/rabbitmq
      - /mydata/rabbitmq/log:/var/log/rabbitmq
    ports:
      - 5672:5672
      - 15672:15672

編輯好后,直接執(zhí)行以下命令:

docker-compose -f  docker-composer-env.yml up  -d

安裝好后,這里就會出現(xiàn)如下頁面
Rocketmq、Rabbitmq、Kafka、Mongo、Elasticsearch、Logstash、Kibana、Nacos、Skywalking、Seata、Spark、Zookeeper安裝

二、安全組規(guī)則添加端口

Rocketmq、Rabbitmq、Kafka、Mongo、Elasticsearch、Logstash、Kibana、Nacos、Skywalking、Seata、Spark、Zookeeper安裝

三、通過瀏覽器訪問rabbitmq的管控頁面

校驗(yàn)是否正常
Rocketmq、Rabbitmq、Kafka、Mongo、Elasticsearch、Logstash、Kibana、Nacos、Skywalking、Seata、Spark、Zookeeper安裝

四、提供其他項(xiàng)目依賴

替換docker-composer-env.yml文件內(nèi)容

version: '3.8'
services:
  nacos:
    restart: always  
    image: nacos/nacos-server:1.4.2
    container_name: nacos
    environment:
      - MODE=standalone
    volumes:
      - /mydata/nacos/logs/:/home/nacos/logs
    ports:
      - 8848:8848
  spark-master:
    restart: always
    image: bitnami/spark:2.4.3
    container_name: spark-master
    user: root
    environment:
      - "SPARK_MODE=master"
      - "SPARK_RPC_AUTHENTICATION_ENABLED=no"
      - "SPARK_RPC_ENCRYPTION_ENABLED=no"
      - "SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no"
      - "SPARK_SSL_ENABLED=no"
    ports:
      - 8180:8080
      - 7077:7077
    volumes:
      - /mydata/python:/python
  spark-worker1:
    restart: always
    image: bitnami/spark:2.4.3
    container_name: spark-worker1
    user: root
    environment:
      - "SPARK_MODE=worker"
      - "SPARK_MASTER_URL=spark://master:7077"
      - "SPARK_WORKER_MEMORY=1G"
      - "SPARK_WORKER_CORES=1"
      - "SPARK_RPC_AUTHENTICATION_ENABLED=no"
      - "SPARK_RPC_ENCRYPTION_ENABLED=no"
      - "SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no"
      - "SPARK_SSL_ENABLED=no"
  spark-worker2:
    restart: always  
    image: bitnami/spark:2.4.3
    container_name: spark-worker2
    user: root
    environment:
      - "SPARK_MODE=worker"
      - "SPARK_MASTER_URL=spark://master:7077"
      - "SPARK_WORKER_MEMORY=1G"
      - "SPARK_WORKER_CORES=1"
      - "SPARK_RPC_AUTHENTICATION_ENABLED=no"
      - "SPARK_RPC_ENCRYPTION_ENABLED=no"
      - "SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLED=no"
  seata-server:
    container_name: seata-server
    restart: always
    image: seataio/seata-server:1.4.0
    environment:
     - "SEATA_IP=106.14.132.94"
     - "SEATA_CONFIG_NAME=file:/root/seata-config/registry"
    volumes:
      - /mydata/seataServer/conf:/root/seata-config
      - /mydata/seataServer/logs:/root/logs
    ports:
      - 8091:8091
  oap:
    image: apache/skywalking-oap-server:8.1.0-es7
    container_name: oap
    depends_on:
      - elasticsearch
    links:
      - elasticsearch
    restart: always
    ports:
      - 11800:11800
      - 12800:12800
    environment:
      - "SW_STORAGE=elasticsearch7"
      - "SW_STORAGE_ES_CLUSTER_NODES=elasticsearch:9200"
      - "TZ=Asia/Shanghai"
  ui:
    image: apache/skywalking-ui:8.1.0
    container_name: ui
    depends_on:
      - oap
    links:
      - oap
    restart: always
    ports:
      - 8280:8080
    environment:
      - "SW_OAP_ADDRESS=oap:12800"
      - "TZ=Asia/Shanghai"
  kafka:
    restart: always
    image: wurstmeister/kafka
    container_name: kafka
    volumes:
      - /etc/localtime:/etc/localtime
    ports:
      - 9092:9092
    environment:
    - "KAFKA_ADVERTISED_HOST_NAME=106.14.132.94"
    - "KAFKA_ZOOKEEPER_CONNECT=zookeeper:2181"
    - "KAFKA_ADVERTISED_PORT=9092"
    - "KAFKA_LOG_RETENTION_HOURS=120"
    - "KAFKA_MESSAGE_MAX_BYTES=10000000"
    - "KAFKA_REPLICA_FETCH_MAX_BYTES=10000000"
    - "KAFKA_GROUP_MAX_SESSION_TIMEOUT_MS=60000"
    - "KAFKA_NUM_PARTITIONS=3"
    - "KAFKA_DELETE_RETENTION_MS=1000"
  kafka-manager:
    restart: always  
    image: sheepkiller/kafka-manager
    container_name: kafka-manager
    environment:
      ZK_HOSTS: 106.14.132.94
    ports:
      - 9009:9000
  rabbitmq:
    restart: always  
    image: rabbitmq:3.7.25-management
    container_name: rabbitmq
    volumes:
      - /mydata/rabbitmq/data:/var/lib/rabbitmq
      - /mydata/rabbitmq/log:/var/log/rabbitmq
    ports:
      - 5672:5672
      - 15672:15672	  
  elasticsearch:
    restart: always  
    image: elasticsearch:7.9.0
    container_name: elasticsearch
    environment:
      - "cluster.name=elasticsearch"
      - "discovery.type=single-node"
      - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
    volumes:
      - /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins
      - /mydata/elasticsearch/data:/usr/share/elasticsearch/data
    ports:
      - 9200:9200
      - 9300:9300
  kibana:
    restart: always  
    image: kibana:6.4.0
    container_name: kibana
    links:
      - elasticsearch:es
    depends_on:
      - elasticsearch
    environment:
      - "elasticsearch.hosts=http://es:9200"
    ports:
      - 5601:5601
  logstash:
    restart: always  
    image: logstash:6.4.0
    container_name: logstash
    volumes:
      - /mydata/logstash/filebeat-filter-console.conf:/usr/share/logstash/pipeline/filebeat-filter-console.conf
      - /mydata/logstash/filebeat-filter-es.conf:/usr/share/logstash/pipeline/filebeat-filter-es.conf
      - /mydata/logstash/filebeat-filter-print.conf:/usr/share/logstash/pipeline/filebeat-filter-print.conf
    depends_on:
      - elasticsearch
    links:
      - elasticsearch:es
    ports:
      - 4560:4560
  mongo:
    restart: always  
    image: mongo:3.2
    container_name: mongo
    volumes:
      - /mydata/mongo/db:/data/db
    ports:
      - 27017:27017
  zookeeper:
    restart: always  
    image: zookeeper:3.5
    container_name: zookeeper
    ports:
      - 2181:2181 
    volumes:
      - /mydata/zookeeper/data:/data
      - /mydata/zookeeper/conf:/conf
  rocketmq:
    image: rocketmqinc/rocketmq
    container_name: rocketmq
    restart: always    
    ports:
      - 9876:9876
    volumes:
      - /mydata/rocketmq/logs:/home/rocketmq/logs
      - /mydata/rocketmq/store:/home/rocketmq/store
    command: sh mqnamesrv
  broker:
    image: rocketmqinc/rocketmq
    container_name: rmqbroker
    restart: always    
    ports:
      - 10909:10909
      - 10911:10911
      - 10912:10912
    volumes:
      - /mydata/rocketmq/logs:/home/rocketmq/logs
      - /mydata/rocketmq/store:/home/rocketmq/store
      - /mydata/rocketmq/conf/broker.conf:/opt/rocketmq-4.4.0/conf/broker.conf
    command: sh mqbroker -n namesrv:9876 -c ../conf/broker.conf
    depends_on:
      - rocketmq
    environment:
      - JAVA_HOME=/usr/lib/jvm/jre
  console:
    image: styletang/rocketmq-console-ng
    container_name: rocketmq-console-ng
    restart: always    
    ports:
      - 8076:8080
    depends_on:
      - rocketmq
    environment:
      - JAVA_OPTS= -Dlogging.level.root=info -Drocketmq.namesrv.addr=rocketmq:9876 
      - Dcom.rocketmq.sendMessageWithVIPChannel=false

啟動(dòng)成功之后如下圖示例:
Rocketmq、Rabbitmq、Kafka、Mongo、Elasticsearch、Logstash、Kibana、Nacos、Skywalking、Seata、Spark、Zookeeper安裝


總結(jié)

提示:寶塔面板安裝docker/docker-compose,一條命令搞定rabbitmq的安裝與配置。文章來源地址http://www.zghlxwxcb.cn/news/detail-433675.html

到了這里,關(guān)于Rocketmq、Rabbitmq、Kafka、Mongo、Elasticsearch、Logstash、Kibana、Nacos、Skywalking、Seata、Spark、Zookeeper安裝的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • docker安裝單機(jī)nacos、rocketmq、reids、xxl-job、minio、elasticsearch、kibana、gogs、nginx

    docker安裝單機(jī)nacos、rocketmq、reids、xxl-job、minio、elasticsearch、kibana、gogs、nginx

    目錄在右側(cè)中部 啟動(dòng)容器報(bào)錯(cuò) 直接刪除那個(gè)name后邊的就可以 首先需要拉取對應(yīng)的鏡像文件: docker pull nacos/nacos-server 掛載目錄: 修改custom.properties配置文件: 啟動(dòng)nacos容器: 瀏覽器登錄:ip:8848/nacos 賬號:nacos 密碼:nacos 設(shè)置nacos自啟動(dòng): docker update --restart=always nacos 拉取鏡

    2024年02月07日
    瀏覽(21)
  • ELK(ElasticSearch, Logstash, Kibana)

    ELK(ElasticSearch, Logstash, Kibana)

    ELK簡介 ELK是三個(gè)開源軟件的縮寫,分別表示:Elasticsearch , Logstash, Kibana , 它們都是開源軟件。新增了一個(gè)FileBeat,它是一個(gè)輕量級的日志收集處理工具(Agent),F(xiàn)ilebeat占用資源少,適合于在各個(gè)服務(wù)器上搜集日志后傳輸給Logstash,官方也推薦此工具。 Elasticsearch是個(gè)開源分布式搜

    2023年04月09日
    瀏覽(27)
  • Linux 安裝elasticsearch,kibana,Logstash

    Linux 安裝elasticsearch,kibana,Logstash

    需在云服務(wù)器安全組開放相應(yīng)端口 輸入服務(wù)器公網(wǎng)ip:9200 需在云服務(wù)器安全組開放5601 需在云服務(wù)器安全組開放相應(yīng)端口4560

    2024年02月16日
    瀏覽(54)
  • docker整合Elasticsearch、Kibana、Logstash

    首先,確保已經(jīng)安裝了Docker。如果沒有,請按照以下步驟進(jìn)行安裝: 在的操作系統(tǒng)上安裝Docker。 確認(rèn)Docker已經(jīng)正確地安裝并正在運(yùn)行。 接下來,我們需要拉取Elasticsearch鏡像。請?jiān)诮K端中輸入以下命令: 這將從Docker Hub拉取最新版本的Elasticsearch鏡像。如果需要其他版本,請將

    2024年02月11日
    瀏覽(22)
  • Elasticsearch + Logstash + Kibana 日志分析系統(tǒng)搭建

    Elasticsearch、Logstash 和 Kibana 組成了一個(gè)開源的日志分析系統(tǒng)簡稱 ELK Stack。 Elasticsearch: 一個(gè)基于 Lucene 的搜索引擎,可以快速存儲、檢索和分析大量數(shù)據(jù) Logstash: 一個(gè)日志收集和處理工具,可以將來自不同來源的數(shù)據(jù)收集到 Elasticsearch 中 Kibana: 一個(gè)數(shù)據(jù)可視化平臺,可以實(shí)時(shí)地

    2024年02月08日
    瀏覽(25)
  • ELK(elasticsearch+logstash+kibana+beats)

    ELK(elasticsearch+logstash+kibana+beats)

    Elasticsearch :Elasticsearch(以下簡稱ES) 是一個(gè)分布式、RESTful 風(fēng)格的搜索和數(shù)據(jù)分析引擎,能夠解決不斷涌現(xiàn)出的各種用例。 ES是 Elastic Stack 的核心,采用集中式數(shù)據(jù)存儲,可以通過機(jī)器學(xué)習(xí)來發(fā)現(xiàn)潛在問題。ES能夠執(zhí)行及合并多種類型的搜索(結(jié)構(gòu)化數(shù)據(jù)、非結(jié)構(gòu)化數(shù)據(jù)、地

    2024年02月16日
    瀏覽(27)
  • springboot整合elk(Elasticsearch+Logstash+Kibana)

    功能介紹 ELK 是軟件集合Elasticsearch、Logstash、Kibana的簡稱,由這三個(gè)軟件及其相關(guān)的組件可以打造大規(guī)模日志實(shí)時(shí)處理系統(tǒng)。 Elasticsearch 是一個(gè)基于 Lucene 的、支持全文索引的分布式存儲和索引引擎,主要負(fù)責(zé)將日志索引并存儲起來,方便業(yè)務(wù)方檢索查詢。 Logstash是一個(gè)日志收

    2024年02月06日
    瀏覽(25)
  • ELK(Elasticsearch+Logstash+Kibana)日志分析系統(tǒng)

    ELK(Elasticsearch+Logstash+Kibana)日志分析系統(tǒng)

    目錄 前言 一、ELK日志分析系統(tǒng)概述 1、三大組件工具介紹 1.1?Elasticsearch 1.1.1?Elasticsearch概念 1.1.2?關(guān)系型數(shù)據(jù)庫和ElasticSearch中的對應(yīng)關(guān)系 1.1.3?Elasticsearch提供的操作命令 1.2?Logstash 1.2.1 Logstash概念 1.2.2 Logstash的主要組件 1.2.3?Logstash主機(jī)分類 1.2.4?Logstash工作過程 1.3?Kiabana 2、

    2024年04月25日
    瀏覽(44)
  • docker安裝elk(Elasticsearch+logstash+kibana)

    docker安裝elk(Elasticsearch+logstash+kibana)

    1. 安裝Docker 如果您還沒有安裝Docker,請先安裝Docker。您可以按照官方文檔進(jìn)行安裝:https://docs.docker.com/engine/installation/ 安裝 docker-ce [root@k8s-master ~]# yum install docker-ce -y [root@k8s-master ~]# systemctl start docker systemctl enable docker.service ? 配置 docker 鏡像加速器和驅(qū)動(dòng) [root@k8s-master ~]#vi

    2024年01月20日
    瀏覽(98)
  • 日志系統(tǒng)一(elasticsearch+filebeat+logstash+kibana)

    日志系統(tǒng)一(elasticsearch+filebeat+logstash+kibana)

    目錄 一、es集群部署 安裝java環(huán)境 部署es集群 安裝IK分詞器插件 二、filebeat安裝(docker方式) 三、logstash部署 四、kibana部署 背景:因業(yè)務(wù)需求需要將nginx、java、ingress日志進(jìn)行收集。 架構(gòu):filebeat+logstash+es+kibana 服務(wù)器規(guī)劃: 192.168.7.250(es) 192.168.6.216(filebeat,es) 192.168.7

    2024年02月03日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包