国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Datax hive 寫 es

這篇具有很好參考價值的文章主要介紹了Datax hive 寫 es。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1、查看datax官網(wǎng)

https://github.com/alibaba/datax/tree/master

Datax hive 寫 es

發(fā)現(xiàn)有 寫es的案例

進入 case案例,查看 json

DataX/elasticsearchwriter.md at master · alibaba/DataX · GitHub

{
  "job": {
    "setting": {
        "speed": {
            "channel": 1
        }
    },
    "content": [
      {
        "reader": {
          ...
        },
        "writer": {
          "name": "elasticsearchwriter",
          "parameter": {
            "endpoint": "http://xxx:9999",
            "accessId": "xxxx",
            "accessKey": "xxxx",
            "index": "test-1",
            "type": "default",
            "cleanup": true,
            "settings": {"index" :{"number_of_shards": 1, "number_of_replicas": 0}},
            "discovery": false,
            "batchSize": 1000,
            "splitter": ",",
            "column": [
              {"name": "pk", "type": "id"},
              { "name": "col_ip","type": "ip" },
              { "name": "col_double","type": "double" },
              { "name": "col_long","type": "long" },
              { "name": "col_integer","type": "integer" },
              { "name": "col_keyword", "type": "keyword" },
              { "name": "col_text", "type": "text", "analyzer": "ik_max_word"},
              { "name": "col_geo_point", "type": "geo_point" },
              { "name": "col_date", "type": "date", "format": "yyyy-MM-dd HH:mm:ss"},
              { "name": "col_nested1", "type": "nested" },
              { "name": "col_nested2", "type": "nested" },
              { "name": "col_object1", "type": "object" },
              { "name": "col_object2", "type": "object" },
              { "name": "col_integer_array", "type":"integer", "array":true},
              { "name": "col_geo_shape", "type":"geo_shape", "tree": "quadtree", "precision": "10m"}
            ]
          }
        }
      }
    ]
  }
}

注意下:

? ? ? ? 有些參數(shù)不是必選的,可以不填

????????Datax hive 寫 es

2、實測下:

{
    "job": {
        "setting": {
            "speed": {
                "channel": 1
            }
        },
        "content": [
            {
                "reader": {
                    "name": "hdfsreader",
                    "parameter": {
                        "path": "/apps/hive/warehouse/071000/stg_hive_es_test/dt=2022-03-31/",
                        "defaultFS": "hdfs://sandbox-bigdata-1:8020/",
                        "column": [
                            {
                                "index": 0,
                                "type": "long"
                            },
                            {
                                "index": 1,
                                "type": "string"
                            },
                            {
                                "index": 2,
                                "type": "string"
                            },
                            {
                                "index": 3,
                                "type": "long"
                            },
                            {
                                "index": 4,
                                "type": "double"
                            },
                            {
                                "index": 5,
                                "type": "string"
                            },
                            {
                                "value": "2022-03-31",
                                "type": "string"
                            }
                        ],
                        "fileType": "text",
                        "encoding": "UTF-8",
                        "fieldDelimiter": "\u0001"
                    }
                },
                "writer": {
                    "name": "elasticsearchwriter",
                    "parameter": {
                        "endpoint": "http://127.0.0.1:8200",
                        "index": "index_test_5",
                        "type": "rsl_bas_road_base",
                        "cleanup": false,
                        "settings": {
                            "index": {
                                "number_of_shards": 1,
                                "number_of_replicas": 0
                            }
                        },
                        "discovery": false,
                        "batchSize": 1000,
                        "column": [
                            {
                                "name": "id",
                                "type": "long"
                            },
                            {
                                "name": "road_id",
                                "type": "keyword"
                            },
                            {
                                "name": "road_name",
                                "type": "keyword"
                            },
                            {
                                "name": "road_dir_no",
                                "type": "long"
                            },
                            {
                                "name": "flow",
                                "type": "double"
                            },
                            {
                                "name": "time",
                                "type": "date"
                            },
                            {
                                "name": "dt",
                                "type": "keyword"
                            }
                        ]
                    }
                }
            }
        ]
    }
}

測試過程中,有個身份驗證的錯誤注意下,在我的另一篇博客中。

datax hive 寫 es 報錯 Caused by: java.lang.IllegalArgumentException: Preemptive authentication set with_fyl005的博客-CSDN博客

source 端:

????????hive 數(shù)據(jù) mock:

向 hive 分區(qū)表中插入數(shù)據(jù)_fyl005的博客-CSDN博客

sink 端:

? ? ? ? es 端不需要提前創(chuàng)建 index的(不需要創(chuàng)建表),會自動創(chuàng)建表。

?

結果:

Datax hive 寫 es?Datax hive 寫 es文章來源地址http://www.zghlxwxcb.cn/news/detail-483989.html

到了這里,關于Datax hive 寫 es的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 成功解決DataX從Hive導出Oracle的數(shù)據(jù)亂碼問題!

    大數(shù)據(jù)與 RDBMS 之間的數(shù)據(jù)導入和導出都是企業(yè)日常數(shù)據(jù)處理中常見的一環(huán),該環(huán)節(jié)一般稱為 e-t-l 即 extract-transform-load 。市面上可用的 etl 工具和框架很多,如來自于傳統(tǒng)數(shù)倉和 BI 圈的 kettle/informatica/datastage , 來自于 hadoop 生態(tài)圈的 sqoop/datax ,抑或使用計算引擎 spark/presto/fli

    2024年02月13日
    瀏覽(21)
  • 使用DataX實現(xiàn)mysql與hive數(shù)據(jù)互相導入導出
一、概論

    使用DataX實現(xiàn)mysql與hive數(shù)據(jù)互相導入導出 一、概論

    ???????? DataX 是 阿里巴巴開源 的一個異構數(shù)據(jù)源離線同步工具,致力于實現(xiàn)包括關系型數(shù)據(jù)庫(MySQL、Oracle 等)、HDFS、Hive、ODPS、HBase、FTP 等 各種異構數(shù)據(jù)源之間穩(wěn)定高效的數(shù)據(jù)同步 功能。 ???????? 為了解決異構數(shù)據(jù)源同步問題,DataX 將復雜的 網(wǎng)狀 的同步鏈路變成了

    2024年02月14日
    瀏覽(22)
  • datax 同步mongodb數(shù)據(jù)庫到hive(hdfs)和elasticserch(es)

    1.mongodb版本:3.6.3。(有點老了,后來發(fā)現(xiàn)flinkcdc都只能監(jiān)控一張表,多張表無法監(jiān)控) 2.datax版本:自己編譯的DataX-datax_v202210 3.hdfs版本:3.1.3 4.hive版本:3.1.2 1.增量數(shù)據(jù):需要每隔1小時將mongodb中17個集合的數(shù)據(jù)同步至hive,因為有數(shù)據(jù)生成時間,才用datax查詢方式,將上一個

    2023年04月23日
    瀏覽(92)
  • 【Spark數(shù)倉項目】需求八:MySQL的DataX全量導入和增量導入Hive

    【Spark數(shù)倉項目】需求八:MySQL的DataX全量導入和增量導入Hive 本需求將模擬從MySQL中向Hive數(shù)倉中導入數(shù)據(jù),數(shù)據(jù)以時間分區(qū)。測試兩種導入場景,一種是將數(shù)據(jù)全量導入,即包含所有時間分區(qū);另一種是每天運行調度,僅導入當天時間分區(qū)中的用戶數(shù)據(jù)。 mysql表建表語句:

    2024年02月03日
    瀏覽(21)
  • 【DolphinScheduler】datax讀取hive分區(qū)表時,空分區(qū)、分區(qū)無數(shù)據(jù)任務報錯問題解決

    【DolphinScheduler】datax讀取hive分區(qū)表時,空分區(qū)、分區(qū)無數(shù)據(jù)任務報錯問題解決

    最近在使用海豚調度DolphinScheduler的Datax組件時,遇到這么一個問題:之前給客戶使用海豚做的離線數(shù)倉的分層搭建,一直都運行好好的,過了個元旦,這幾天突然在數(shù)倉做任務時報錯,具體報錯信息如下: com.alibaba.datax.common.exception.DataXException: Code:[HdfsReader-08], Description:[您嘗

    2024年01月16日
    瀏覽(19)
  • Doris-05-集成Spark、Flink、Datax,以及數(shù)據(jù)湖分析(JDBC、ODBC、ES、Hive、多源數(shù)據(jù)目錄Catalog)

    Doris-05-集成Spark、Flink、Datax,以及數(shù)據(jù)湖分析(JDBC、ODBC、ES、Hive、多源數(shù)據(jù)目錄Catalog)

    準備表和數(shù)據(jù): Spark 讀寫 Doris Spark Doris Connector 可以支持通過 Spark 讀取 Doris 中存儲的數(shù)據(jù),也支持通過Spark寫入數(shù)據(jù)到Doris。 代碼庫地址:https://github.com/apache/incubator-doris-spark-connector 支持從 Doris 中讀取數(shù)據(jù) 支持 Spark DataFrame 批量/流式 寫入 Doris 可以將 Doris 表映射為 DataFra

    2024年02月06日
    瀏覽(49)
  • 使用DataX工具連接hive數(shù)據(jù)庫:java.sql.SQLException: Could not establish connection to jdbc:hive2://master:1000

    使用DataX工具連接hive數(shù)據(jù)庫:java.sql.SQLException: Could not establish connection to jdbc:hive2://master:1000

    Code:[DBUtilErrorCode-10], Description:[連接數(shù)據(jù)庫失敗. 請檢查您的 賬號、密碼、數(shù)據(jù)庫名稱、IP、Port或者向 DBA 尋求幫助(注意網(wǎng)絡環(huán)境).]. - 具體錯誤信息為:java.sql.SQLException: Could not establish connection to jdbc:hive2://master:10000/datax: Required field \\\'serverProtocolVersion\\\' is unset! Struct:TOpenSessionRe

    2024年04月09日
    瀏覽(92)
  • 5、DataX(DataX簡介、DataX架構原理、DataX部署、使用、同步MySQL數(shù)據(jù)到HDFS、同步HDFS數(shù)據(jù)到MySQL)

    5、DataX(DataX簡介、DataX架構原理、DataX部署、使用、同步MySQL數(shù)據(jù)到HDFS、同步HDFS數(shù)據(jù)到MySQL)

    1.1 DataX概述 源碼地址:https://github.com/alibaba/DataX 1.2 DataX支持的數(shù)據(jù)源 DataX目前已經有了比較全面的插件體系,主流的RDBMS數(shù)據(jù)庫、NOSQL、大數(shù)據(jù)計算系統(tǒng)都已經接入,目前支持數(shù)據(jù)如下圖。 2.1 DataX設計理念 為了解決異構數(shù)據(jù)源同步問題,DataX將復雜的網(wǎng)狀的同步鏈路變成了星

    2024年02月11日
    瀏覽(21)
  • docker 安裝 datax和datax-web 之 datax-web登錄時提示賬號或密碼錯誤

    docker 安裝 datax和datax-web 之 datax-web登錄時提示賬號或密碼錯誤

    https://www.cnblogs.com/leihongnu/p/16612273.html 根據(jù)該博客的教程安裝成功后,登錄頁面能打開,但是所提供的賬戶密碼一直報錯,這個就需要根據(jù)日志一步步去尋找原因了。 該鏡像包含三個模塊:datax, datax-web, datax-exector,日志路徑分別為: /home/datax/datax-web-2.1.2/bin/console.out /home/data

    2024年02月10日
    瀏覽(27)
  • Spark寫入Hive報錯Mkdir failed on :com.alibaba.jfs.JindoRequestPath

    Spark寫入Hive報錯Mkdir failed on :com.alibaba.jfs.JindoRequestPath

    ????????程序很簡單,就是數(shù)倉ODS層計算邏輯,直接從阿里云OSS讀取數(shù)據(jù),補充上一些必要的列,最后數(shù)據(jù)落盤到hive表。 3.1 分析報錯內容 ????????根據(jù)下面兩段報錯提示可以得出:Spark Driver在寫入Hive時,試圖在oss://sync-to-bi.[馬賽克].aliyuncs.com/tmp/hive這個路徑下創(chuàng)建目

    2024年02月11日
    瀏覽(17)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包