国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

ElasticSearch單節(jié)點部署并通過monstache同步MongoDB數(shù)據(jù)

這篇具有很好參考價值的文章主要介紹了ElasticSearch單節(jié)點部署并通過monstache同步MongoDB數(shù)據(jù)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

參考自文檔:
https://www.cnblogs.com/balloon72/p/13177872.html elasticsearch和kibana安裝
https://www.cnblogs.com/fuguang/p/13745336.html monstache同步數(shù)據(jù)

1.ElasticSearch和kibana 安裝

準備配置文件

mkdir -p /mydata/elasticsearch/config
mkdir -p /mydata/elasticsearch/data
mkdir -p /mydata/kibana/config
mkdir -p /mydata/monstache-conf
echo "http.host: 0.0.0.0" >> /mydata/elasticsearch/config/elasticsearch.yml
echo "http.cors.enabled: true" >> /mydata/elasticsearch/config/elasticsearch.yml
echo "http.cors.allow-origin: \"*\"" >> /mydata/elasticsearch/config/elasticsearch.yml
#2022-5-7新增以下兩行 開啟安全驗證 
echo "xpack.security.enabled: true" >> /mydata/elasticsearch/config/elasticsearch.yml
echo "xpack.security.transport.ssl.enabled: true" >> /mydata/elasticsearch/config/elasticsearch.yml

chmod 777 /mydata/elasticsearch/config
chmod 777 /mydata/kibana/config
chmod 777 /mydata/elasticsearch/data
chmod 777 /mydata/monstache-conf

編輯:/mydata/kibana/config/kibana.yml

elasticsearch.hosts: http://elasticsearch:9200
server.host: "0.0.0.0"
server.name: kibana
xpack.monitoring.ui.container.elasticsearch.enabled: true
#2022-5-7新增以下兩行 開啟安全驗證 
elasticsearch.username: "elastic"  # es賬號
elasticsearch.password: "******"   # es密碼
i18n.locale: zh-CN

編輯:/mydata/monstache-conf/monstache.config.toml文件內(nèi)容:

# connectionn settings

# connect to MongoDB using the following URL
2022-5-12修改以下一行密碼內(nèi)容 
mongo-url = "mongodb://root:******@192.168.3.208:27017,192.168.3.208:27018/nfy-csia?slaveOk=true&write=1&readPreference=secondaryPreferred&connectTimeoutMS=300000&authSource=admin&authMechanism=SCRAM-SHA-1"
# connect to the Elasticsearch REST API at the following node URLs
elasticsearch-urls = ["http://192.168.3.208:9200"]
direct-read-namespaces = ["nfy-csia.capMessage","nfy-csia.vehicleMessage"]
change-stream-namespaces = ["nfy-csia.capMessage","nfy-csia.vehicleMessage"]

# use the following user name for Elasticsearch basic auth
elasticsearch-user = "elastic"
# use the following password for Elasticsearch basic auth
#2022-5-7修改以下一行密碼內(nèi)容 
elasticsearch-password = "******"
# use 4 go routines concurrently pushing documents to Elasticsearch
elasticsearch-max-conns = 4
# propogate dropped collections in MongoDB as index deletes in Elasticsearch
dropped-collections = true
# propogate dropped databases in MongoDB as index deletes in Elasticsearch
dropped-databases = true
# in the log if you had synced previously. This just means that you are replaying old docs which are already
# in Elasticsearch with a newer version. Elasticsearch is preventing the old docs from overwriting new ones.
replay = false
# resume processing from a timestamp saved in a previous run
resume = true
index-as-update = true
# use a custom resume strategy (tokens) instead of the default strategy (timestamps)
# tokens work with MongoDB API 3.6+ while timestamps work only with MongoDB API 4.0+
resume-strategy = 0
# print detailed information including request traces
verbose = true

準備容器配置
docker-compose編排腳本新增內(nèi)容(實際追加在192.168.3.249服務器原docker-compose):

elasticsearch:
  image: elasticsearch:7.14.2
  restart: always
  container_name: elasticsearch
  deploy:
    resources:
      limits:
        cpus: "4"
        memory: 6G
      reservations:
        memory: 2G
	environment:
    - discovery.type=single-node
	  - "ES_JAVA_OPTS=-Xms1024m -Xmx4096m"
  volumes:
    - /mydata/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml
	  - /mydata/elasticsearch/data:/usr/share/elasticsearch/data
	  - /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins
	ports:
    - 9200:9200
	  - 9300:9300
	networks: 
	  - csia
kibana:
  image: kibana:7.14.2
  restart: always
  container_name: es-kibana
  deploy:
    resources:
      limits:
        cpus: "1"
        memory: 500M
      reservations:
        memory: 100M
	environment:
    - ELASTICSEARCH_HOSTS=http://elasticsearch:9200
  volumes:
    - /mydata/kibana/config/kibana.yml:/usr/share/kibana/config/kibana.yml
  ports:
    - 5601:5601
	depends_on: 
	  - elasticsearch
	networks: 
	  - csia

#2022-5-7新增密碼設置步驟:
es啟動后進入容器設置密碼:

# 進入容器
docker exec -it elasticsearch /bin/bash
# 設置密碼-手動設置密碼 會有多個用戶需要設置,如下圖
elasticsearch-setup-passwords interactive
# 完成后測試訪問
curl 127.0.0.1:9200 -u elastic:******

ElasticSearch單節(jié)點部署并通過monstache同步MongoDB數(shù)據(jù)
如圖為以上多個用戶配置密碼,最主要是第一個elastic用戶設為 ****** ,后面用戶密碼相同即可,不重要。

驗證:http://IP:5601/app/kibana
ElasticSearch單節(jié)點部署并通過monstache同步MongoDB數(shù)據(jù)

2.mongoDB同步配置和 工具monstache安裝:

在已有的mongoDB容器追加一行,并重啟:

command: mongod --replSet repset

docker-compose添加mongoDB副本集容器:

mongo-replSet:
  image: mongo:4.1.13
  restart: always
  deploy:
    resources:
      limits:
        cpus: "2"
        memory: 4G
      reservations:
        memory: 200M
  logging:
    driver: "json-file"
    options:
      max-size: "500m"
  privileged: true
  ports:
    - 27018:27017
  networks:
    - csia
  command: mongod --replSet repset


mongo兩個容器都運行后,進入其中一個執(zhí)行關聯(lián)副本集命令:

docker exec -it mongo容器名 bash
mongo
rs.initiate({_id:"repset",members:[{_id:0,host:"192.168.3.249:27017"},{_id:1,host:"192.168.3.249:27018"}]})

返回ok結束
docker-compose新增同步工具monstache容器:

monstache:
  image: rwynn/monstache:rel6
  restart: always
  container_name: monstache
  volumes:
    - /mydata/monstache-conf/monstache.config.toml:/app/monstache.config.toml
  restart: always
  deploy:
    resources:
      limits:
        cpus: "1"
        memory: 500M
      reservations:
        memory: 100M
  command: -f /app/monstache.config.toml
	depends_on: 
	  - mongo

完成后啟動docker-compose

查看es內(nèi)索引和數(shù)據(jù)量:curl -s -XGET --user elastic:密碼 'http://127.0.0.1:9200/_cat/indices/?v’
正常情況如圖,能看到mongo的索引并數(shù)據(jù)不斷增加
ElasticSearch單節(jié)點部署并通過monstache同步MongoDB數(shù)據(jù)

2022-5-7更新: 以下功能實測效率低已放棄使用
附:由于技戰(zhàn)法功能需要用到聚合查詢,初始化es后需要將cameraId和archivesInfo.archivesId兩個字段執(zhí)行如下配置:
kibana->開發(fā)工具->
執(zhí)行如下
1、
PUT nfy-csia.capmessage/_mapping?pretty
{
~~ “properties”: {
“cameraId”: {
“type”: “text”,
“fielddata”: true~~
~~ }
}
}
2、
PUT nfy-csia.capmessage/_mapping?pretty
{
“properties”: {
“archivesInfo.archivesId”: {
“type”: “text”,
“fielddata”: true~~
~~ }
}
}~~
ElasticSearch單節(jié)點部署并通過monstache同步MongoDB數(shù)據(jù)文章來源地址http://www.zghlxwxcb.cn/news/detail-412613.html

到了這里,關于ElasticSearch單節(jié)點部署并通過monstache同步MongoDB數(shù)據(jù)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • Centos7部署單節(jié)點MongoDB(V4.2.25)

    Centos7部署單節(jié)點MongoDB(V4.2.25)

    ?? 作者: 互聯(lián)網(wǎng)-小啊宇 ?? 簡介: CSDN 運維領域創(chuàng)作者、阿里云專家博主。目前從事 Kubernetes運維相關工作,擅長Linux系統(tǒng)運維、開源監(jiān)控軟件維護、Kubernetes容器技術、CI/CD持續(xù)集成、自動化運維、開源軟件部署維護等領域。 ?? 博客首頁:CSDN【互聯(lián)網(wǎng)-小阿宇】 、阿里云

    2024年03月21日
    瀏覽(24)
  • Flink 內(nèi)容分享(二十一):通過Flink CDC一鍵整庫同步MongoDB到Paimon

    Flink 內(nèi)容分享(二十一):通過Flink CDC一鍵整庫同步MongoDB到Paimon

    目錄 導言 Paimon CDC Demo 說明 Demo 準備 Demo 開始 總結 MongoDB 是一個比較成熟的文檔數(shù)據(jù)庫,在業(yè)務場景中,通常需要采集 MongoDB 的數(shù)據(jù)到數(shù)據(jù)倉庫或數(shù)據(jù)湖中,面向分析場景使用。 Flink MongoDB CDC 是 Flink CDC 社區(qū)提供的一個用于捕獲變更數(shù)據(jù)(Change Data Capturing)的 Flink 連接器,

    2024年01月20日
    瀏覽(41)
  • 服務搭建篇(七) Elasticsearch單節(jié)點部署以及多節(jié)點集群部署

    服務搭建篇(七) Elasticsearch單節(jié)點部署以及多節(jié)點集群部署

    感興趣的話大家可以關注一下公眾號 : 猿人劉先生 , 歡迎大家一起學習 , 一起進步 , 一起來交流吧! Elasticsearch(簡稱ES) 是一個分布式 , RESTful風格的搜索和數(shù)據(jù)分析引擎 , 使用java開發(fā)并且是當前最流行的開源的企業(yè)級搜索引擎,能夠達到近實時搜索,穩(wěn)定,可靠,快速,安裝使

    2024年02月03日
    瀏覽(20)
  • ElasticSearch單節(jié)點部署

    ElasticSearch單節(jié)點部署

    ?? 作者: 互聯(lián)網(wǎng)-小啊宇 ?? 簡介: CSDN 運維領域創(chuàng)作者、阿里云專家博主。目前從事 Kubernetes運維相關工作,擅長Linux系統(tǒng)運維、開源監(jiān)控軟件維護、Kubernetes容器技術、CI/CD持續(xù)集成、自動化運維、開源軟件部署維護等領域。 ?? 博客首頁:CSDN【互聯(lián)網(wǎng)-小阿宇】 、阿里云

    2024年02月13日
    瀏覽(15)
  • Elasticsearch+Kibana集群部署(3節(jié)點)

    Elasticsearch+Kibana集群部署(3節(jié)點)

    l i n d o r ? ? 良民筆記 lindor--良民筆記 l in d or ? ? 良民筆記 前言 ?? 僅作為筆記并記錄elk搭建過程和搭建中遇到的問題, 轉(zhuǎn)載請注明出處 ,目前該章節(jié)只講述了 elasticsearch+Kibana 的安裝過程,以及安裝中的一些簡單報錯;適合有適當基礎的同學,理論表的比較少。 ?

    2024年02月09日
    瀏覽(23)
  • crawlab通過docker單節(jié)點部署簡單爬蟲

    crawlab通過docker單節(jié)點部署簡單爬蟲

    crawlab 此處介紹的是單節(jié)點的方式,多節(jié)點的情況可以把爬蟲上傳到一個節(jié)點中,之后會同步到其它節(jié)點上 docker-compose up -d 運行,訪問 localhost:8080 ,用戶密碼均為admin 此處上傳一個爬取圖片的簡單爬蟲,上傳requirements.txt或者package.json文件,crawlab會自動掃描并安裝依賴,但是

    2024年02月10日
    瀏覽(23)
  • 如何通過docker-compose部署單節(jié)點ES

    一、概述 Linux系統(tǒng)搭建單節(jié)點ES的方式有很多種,其中通過docker-compose進行安裝最為方便。 二、準備 1、配置虛擬機 1.1、設置IP 將虛擬機IP設置為192.168.1.100; 1.2、設置內(nèi)存 將虛擬機內(nèi)存設置為4G,內(nèi)存太小可能導致ES無法正常運行; 1.3、修改limits.conf limits.conf文件可以設置用

    2024年02月15日
    瀏覽(33)
  • Zookeeper集群單節(jié)點啟動成功但未同步其他節(jié)點數(shù)據(jù)

    Zookeeper集群單節(jié)點啟動成功但未同步其他節(jié)點數(shù)據(jù)

    首先排查節(jié)點啟動是否正常: 在zookeeper的bin目錄下執(zhí)行:sh zkServer.sh status 判斷當前節(jié)點數(shù)據(jù)leader 還是follower ?節(jié)點都啟動正常,但某一個zookeeper集群節(jié)點(下面簡稱“異常節(jié)點”)不同步其他節(jié)點數(shù)據(jù),解決步驟: 1、查看異常節(jié)點的配置文件(**/zookeeper/conf/zoo.cfg) 2、找到

    2024年02月11日
    瀏覽(18)
  • Zookeeper 集群中節(jié)點之間數(shù)據(jù)是如何同步的

    1.首先集群啟動時,會先進行領導者選舉,確定哪個節(jié)點是 Leader ,哪些節(jié)點是 Follower 和 Observer 2.然后 Leader 會和其他節(jié)點進行數(shù)據(jù)同步,采用發(fā)送快照和發(fā)送 Diff 日志的方式 3.集群在工作過程中,所有的寫請求都會交給 Leader 節(jié)點來進行處理,從節(jié)點只能處理讀請求 4.

    2024年02月09日
    瀏覽(17)
  • datax 同步mongodb數(shù)據(jù)庫到hive(hdfs)和elasticserch(es)

    1.mongodb版本:3.6.3。(有點老了,后來發(fā)現(xiàn)flinkcdc都只能監(jiān)控一張表,多張表無法監(jiān)控) 2.datax版本:自己編譯的DataX-datax_v202210 3.hdfs版本:3.1.3 4.hive版本:3.1.2 1.增量數(shù)據(jù):需要每隔1小時將mongodb中17個集合的數(shù)據(jù)同步至hive,因為有數(shù)據(jù)生成時間,才用datax查詢方式,將上一個

    2023年04月23日
    瀏覽(91)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包