国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

20221225 海豚調(diào)度2.0.5 星環(huán)驅(qū)動(dòng)包踩坑(一)

這篇具有很好參考價(jià)值的文章主要介紹了20221225 海豚調(diào)度2.0.5 星環(huán)驅(qū)動(dòng)包踩坑(一)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

陽(yáng)陽(yáng)的一周,算是挺過來了,現(xiàn)在只剩感冒了,迷迷糊糊的干了一周,混口飯吃不容易呀!簡(jiǎn)單記錄一下遇到的問題吧!

連接hive(星環(huán))數(shù)據(jù)庫(kù)失敗

  • 方案一 : 海豚調(diào)度2.0.5使用的hive包是2.0版本,星環(huán)庫(kù)包裝的是hive 1.0版本,因此連接不上,將hive包降為1.0(<hive.jdbc.version>1.1.0</hive.jdbc.version>),同時(shí)修改VALIDATION_QUERY 為"select 1 from system.dual"即可
    20221225 海豚調(diào)度2.0.5 星環(huán)驅(qū)動(dòng)包踩坑(一)
    org.apache.dolphinscheduler.spi.utils.Constants
    
    20221225 海豚調(diào)度2.0.5 星環(huán)驅(qū)動(dòng)包踩坑(一)
  • 方案二(推薦) : 刪除hive-jdbc jar包,引入星環(huán)驅(qū)動(dòng)包inceptor-driver-4.8.3.jar下了半天沒成功,如果連接星環(huán)庫(kù)肯定項(xiàng)目里面有這個(gè)包,直接拿過來吧),連接過程中若是包某類或方法不存在,則為jar包沖突,需要繼續(xù)刪除hive相關(guān)包(目前遇到的只有hive1.0的service包沖突,2.0只刪除了jdbc包,其它沒報(bào)沖突),同樣也需要修改VALIDATION_QUERY 為"select 1 from system.dual",同上
    <dependency>
    	<groupId>inceptor.hive</groupId>
    	<artifactId>inceptor.driver</artifactId>
    	<version>4.8.3</version>
    </dependency>
    
    <dependency>
    	<groupId>com.transwarp</groupId>
    	<artifactId>inceptor-driver</artifactId>
    	<version>4.8.3</version>
    </dependency>
    
    推薦理由:hive1.0 不支持存儲(chǔ)過程調(diào)用方法,會(huì)報(bào)錯(cuò),詳情如下
    [ERROR] 2022-12-12 17:54:44.313 TaskLogLogger-class org.apache.dolphinscheduler.plugin.task.procedure.ProcedureTask:[123] - procedure task error
    java.sql.SQLException: Method not supported
    	at org.apache.hive.jdbc.HiveConnection.prepareCall(HiveConnection.java:922)
    	at com.zaxxer.hikari.pool.ProxyConnection.prepareCall(ProxyConnection.java:316)
    	at com.zaxxer.hikari.pool.HikariProxyConnection.prepareCall(HikariProxyConnection.java)
    	at org.apache.dolphinscheduler.plugin.task.procedure.ProcedureTask.handle(ProcedureTask.java:107)
    	at org.apache.dolphinscheduler.server.worker.runner.TaskExecuteThread.run(TaskExecuteThread.java:191)
    	at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
    	at com.google.common.util.concurrent.TrustedListenableFutureTask$TrustedFutureInterruptibleTask.runInterruptibly(TrustedListenableFutureTask.java:125)
    	at com.google.common.util.concurrent.InterruptibleTask.run(InterruptibleTask.java:57)
    	at com.google.common.util.concurrent.TrustedListenableFutureTask.run(TrustedListenableFutureTask.java:78)
    	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
    	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
    	at java.lang.Thread.run(Thread.java:745)
    

執(zhí)行星環(huán)(hive) sql節(jié)點(diǎn),工作流實(shí)例一直執(zhí)行中,任務(wù)實(shí)例則為提交狀態(tài),一直不執(zhí)行

原因是common.properties 配置文件中的resource.storage.type=HDFS,配置了HDFS存儲(chǔ),但是并未按照hadoop集群,master一直嘗試連接hdfs服務(wù)器,因此出現(xiàn)上述情況。將resource.storage.type=HDFS改為resource.storage.type=NONE,重啟服務(wù)即可

執(zhí)行星環(huán)(hive) 存儲(chǔ)過程節(jié)點(diǎn),超過30秒變報(bào)超時(shí)錯(cuò)

  • 錯(cuò)誤詳情

    org.apache.dolphinscheduler.plugin.task.procedure.ProcedureTask
    [ERROR] 2022-12-22 20:49:10.275 TaskLogLogger-class org.apache.dolphinscheduler.plugin.task.procedure.ProcedureTask:[123] - procedure task error
    java.sql.SQLException: org.apache.thrift.transport.TTransportException: java.net.SocketTimeoutException: Read timed out
    	at org.apache.hive.jdbc.HivePreparedStatement2.executeInternal(HivePreparedStatement2.java:158)
    	at org.apache.hive.jdbc.HiveStatement.execute(HiveStatement.java:419)
    	at org.apache.hive.jdbc.HivePreparedStatement2.execute(HivePreparedStatement2.java:165)
    	at org.apache.hive.jdbc.HiveCallableStatement.execute(HiveCallableStatement.java:41)
    	at com.zaxxer.hikari.pool.ProxyPreparedStatement.execute(ProxyPreparedStatement.java:44)
    	at com.zaxxer.hikari.pool.HikariProxyCallableStatement.execute(HikariProxyCallableStatement.java)
    	at org.apache.dolphinscheduler.plugin.task.procedure.ProcedureTask.handle(ProcedureTask.java:116)
    	at org.apache.dolphinscheduler.server.worker.runner.TaskExecuteThread.run(TaskExecuteThread.java:191)
    	at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
    	at com.google.common.util.concurrent.TrustedListenableFutureTask$TrustedFutureInterruptibleTask.runInterruptibly(TrustedListenableFutureTask.java:125)
    	at com.google.common.util.concurrent.InterruptibleTask.run(InterruptibleTask.java:57)
    	at com.google.common.util.concurrent.TrustedListenableFutureTask.run(TrustedListenableFutureTask.java:78)
    	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
    	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
    	at java.lang.Thread.run(Thread.java:745)
    Caused by: org.apache.thrift.transport.TTransportException: java.net.SocketTimeoutException: Read timed out
    	at org.apache.thrift.transport.TIOStreamTransport.read(TIOStreamTransport.java:129)
    	at org.apache.thrift.transport.TTransport.readAll(TTransport.java:86)
    	at org.apache.thrift.transport.TSaslTransport.readLength(TSaslTransport.java:376)
    	at org.apache.thrift.transport.TSaslTransport.readFrame(TSaslTransport.java:453)
    	at org.apache.thrift.transport.TSaslTransport.read(TSaslTransport.java:435)
    	at org.apache.thrift.transport.TSaslClientTransport.read(TSaslClientTransport.java:37)
    	at org.apache.thrift.transport.TTransport.readAll(TTransport.java:86)
    	at org.apache.thrift.protocol.TBinaryProtocol.readAll(TBinaryProtocol.java:429)
    	at org.apache.thrift.protocol.TBinaryProtocol.readI32(TBinaryProtocol.java:318)
    	at org.apache.thrift.protocol.TBinaryProtocol.readMessageBegin(TBinaryProtocol.java:219)
    	at org.apache.thrift.TServiceClient.receiveBase(TServiceClient.java:69)
    	at org.apache.hive.service.cli.thrift.TCLIService$Client.recv_ExecutePreCompiledStatement(TCLIService.java:763)
    	at org.apache.hive.service.cli.thrift.TCLIService$Client.ExecutePreCompiledStatement(TCLIService.java:750)
    	at org.apache.hive.jdbc.HivePreparedStatement2.executeInternal(HivePreparedStatement2.java:141)
    	... 14 common frames omitted
    
  • 解決辦法:修改HiveDataSourceClient 類中的hive連接超時(shí)時(shí)間
    20221225 海豚調(diào)度2.0.5 星環(huán)驅(qū)動(dòng)包踩坑(一)

  • HiveDataSourceClient文章來源地址http://www.zghlxwxcb.cn/news/detail-493087.html

    /*
     * Licensed to the Apache Software Foundation (ASF) under one or more
     * contributor license agreements.  See the NOTICE file distributed with
     * this work for additional information regarding copyright ownership.
     * The ASF licenses this file to You under the Apache License, Version 2.0
     * (the "License"); you may not use this file except in compliance with
     * the License.  You may obtain a copy of the License at
     *
     *    http://www.apache.org/licenses/LICENSE-2.0
     *
     * Unless required by applicable law or agreed to in writing, software
     * distributed under the License is distributed on an "AS IS" BASIS,
     * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
     * See the License for the specific language governing permissions and
     * limitations under the License.
     */
    
    package org.apache.dolphinscheduler.plugin.datasource.hive;
    
    import static org.apache.dolphinscheduler.spi.task.TaskConstants.HADOOP_SECURITY_AUTHENTICATION_STARTUP_STATE;
    import static org.apache.dolphinscheduler.spi.task.TaskConstants.JAVA_SECURITY_KRB5_CONF;
    import static org.apache.dolphinscheduler.spi.task.TaskConstants.JAVA_SECURITY_KRB5_CONF_PATH;
    
    import java.io.IOException;
    import java.lang.reflect.Field;
    import java.sql.Connection;
    import java.sql.SQLException;
    import java.util.concurrent.Executors;
    import java.util.concurrent.ScheduledExecutorService;
    import java.util.concurrent.TimeUnit;
    
    import org.apache.dolphinscheduler.plugin.datasource.api.client.CommonDataSourceClient;
    import org.apache.dolphinscheduler.plugin.datasource.api.provider.JdbcDataSourceProvider;
    import org.apache.dolphinscheduler.plugin.datasource.utils.CommonUtil;
    import org.apache.dolphinscheduler.spi.datasource.BaseConnectionParam;
    import org.apache.dolphinscheduler.spi.enums.DbType;
    import org.apache.dolphinscheduler.spi.utils.Constants;
    import org.apache.dolphinscheduler.spi.utils.PropertyUtils;
    import org.apache.dolphinscheduler.spi.utils.StringUtils;
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.security.UserGroupInformation;
    import org.slf4j.Logger;
    import org.slf4j.LoggerFactory;
    
    import com.zaxxer.hikari.HikariDataSource;
    
    import sun.security.krb5.Config;
    
    public class HiveDataSourceClient extends CommonDataSourceClient {
    
        private static final Logger logger = LoggerFactory.getLogger(HiveDataSourceClient.class);
    
        private ScheduledExecutorService kerberosRenewalService;
    
        private Configuration hadoopConf;
        protected HikariDataSource oneSessionDataSource;
        private UserGroupInformation ugi;
    
        public HiveDataSourceClient(BaseConnectionParam baseConnectionParam, DbType dbType) {
            super(baseConnectionParam, dbType);
        }
    
        @Override
        protected void preInit() {
            logger.info("PreInit in {}", getClass().getName());
            this.kerberosRenewalService = Executors.newSingleThreadScheduledExecutor();
        }
    
        @Override
        protected void initClient(BaseConnectionParam baseConnectionParam, DbType dbType) {
            logger.info("Create Configuration for hive configuration.");
            this.hadoopConf = createHadoopConf();
            logger.info("Create Configuration success.");
    
            logger.info("Create UserGroupInformation.");
            this.ugi = createUserGroupInformation(baseConnectionParam.getUser());
            logger.info("Create ugi success.");
    
            super.initClient(baseConnectionParam, dbType);
            this.oneSessionDataSource = JdbcDataSourceProvider.createOneSessionJdbcDataSource(baseConnectionParam, dbType);
            logger.info("Init {} success.", getClass().getName());
        }
    
        @Override
        protected void checkEnv(BaseConnectionParam baseConnectionParam) {
            super.checkEnv(baseConnectionParam);
            checkKerberosEnv();
        }
    
        private void checkKerberosEnv() {
            String krb5File = PropertyUtils.getString(JAVA_SECURITY_KRB5_CONF_PATH);
            Boolean kerberosStartupState = PropertyUtils.getBoolean(HADOOP_SECURITY_AUTHENTICATION_STARTUP_STATE, false);
            if (kerberosStartupState && StringUtils.isNotBlank(krb5File)) {
                System.setProperty(JAVA_SECURITY_KRB5_CONF, krb5File);
                try {
                    Config.refresh();
                    Class<?> kerberosName = Class.forName("org.apache.hadoop.security.authentication.util.KerberosName");
                    Field field = kerberosName.getDeclaredField("defaultRealm");
                    field.setAccessible(true);
                    field.set(null, Config.getInstance().getDefaultRealm());
                } catch (Exception e) {
                    throw new RuntimeException("Update Kerberos environment failed.", e);
                }
            }
        }
    
        private UserGroupInformation createUserGroupInformation(String username) {
            String krb5File = PropertyUtils.getString(Constants.JAVA_SECURITY_KRB5_CONF_PATH);
            String keytab = PropertyUtils.getString(Constants.LOGIN_USER_KEY_TAB_PATH);
            String principal = PropertyUtils.getString(Constants.LOGIN_USER_KEY_TAB_USERNAME);
    
            try {
                UserGroupInformation ugi = CommonUtil.createUGI(getHadoopConf(), principal, keytab, krb5File, username);
                try {
                    Field isKeytabField = ugi.getClass().getDeclaredField("isKeytab");
                    isKeytabField.setAccessible(true);
                    isKeytabField.set(ugi, true);
                } catch (NoSuchFieldException | IllegalAccessException e) {
                    logger.warn(e.getMessage());
                }
    
                kerberosRenewalService.scheduleWithFixedDelay(() -> {
                    try {
                        ugi.checkTGTAndReloginFromKeytab();
                    } catch (IOException e) {
                        logger.error("Check TGT and Renewal from Keytab error", e);
                    }
                }, 5, 5, TimeUnit.MINUTES);
                return ugi;
            } catch (IOException e) {
                throw new RuntimeException("createUserGroupInformation fail. ", e);
            }
        }
    
        protected Configuration createHadoopConf() {
            Configuration hadoopConf = new Configuration();
            hadoopConf.setBoolean("ipc.client.fallback-to-simple-auth-allowed", true);
            return hadoopConf;
        }
    
        protected Configuration getHadoopConf() {
            return this.hadoopConf;
        }
    
        @Override
        public Connection getConnection() {
            try {
            	oneSessionDataSource.setConnectionTimeout(172800L);//設(shè)置連接超時(shí)時(shí)間 2天
            	//oneSessionDataSource.setIdleTimeout(60000L);// 非必須(空閑超時(shí)時(shí)間),保持默認(rèn)值就行
            	//oneSessionDataSource.setMaxLifetime(600000L);// 非必須(最大生命周期),保持默認(rèn)值就行
                return oneSessionDataSource.getConnection();
            } catch (SQLException e) {
                logger.error("get oneSessionDataSource Connection fail SQLException: {}", e.getMessage(), e);
                return null;
            }
        }
    
        @Override
        public void close() {
            super.close();
    
            logger.info("close HiveDataSourceClient.");
            kerberosRenewalService.shutdown();
            this.ugi = null;
    
            this.oneSessionDataSource.close();
            this.oneSessionDataSource = null;
        }
    }
    
    

http執(zhí)行報(bào)錯(cuò):java.lang.NoClassDefFoundError: Could not initialize class org.apache.http.conn.ssl.SSLConnectionSocketFactory

  • 錯(cuò)誤詳情
    [ERROR] 2022-12-26 11:37:12.532 org.apache.dolphinscheduler.server.worker.runner.TaskExecuteThread:[209] - task scheduler failure
    java.lang.NoClassDefFoundError: Could not initialize class org.apache.http.conn.ssl.SSLConnectionSocketFactory
    	at org.apache.http.impl.client.HttpClientBuilder.build(HttpClientBuilder.java:912)
    	at org.apache.dolphinscheduler.plugin.task.http.HttpTask.createHttpClient(HttpTask.java:333)
    	at org.apache.dolphinscheduler.plugin.task.http.HttpTask.handle(HttpTask.java:98)
    	at org.apache.dolphinscheduler.server.worker.runner.TaskExecuteThread.run(TaskExecuteThread.java:191)
    	at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
    	at com.google.common.util.concurrent.TrustedListenableFutureTask$TrustedFutureInterruptibleTask.runInterruptibly(TrustedListenableFutureTask.java:125)
    	at com.google.common.util.concurrent.InterruptibleTask.run(InterruptibleTask.java:57)
    	at com.google.common.util.concurrent.TrustedListenableFutureTask.run(TrustedListenableFutureTask.java:78)
    	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
    	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
    	at java.lang.Thread.run(Thread.java:750)
    
  • 解決版本:刪除星環(huán)驅(qū)動(dòng)包中的http目錄
    20221225 海豚調(diào)度2.0.5 星環(huán)驅(qū)動(dòng)包踩坑(一)

到了這里,關(guān)于20221225 海豚調(diào)度2.0.5 星環(huán)驅(qū)動(dòng)包踩坑(一)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 用海豚調(diào)度器定時(shí)調(diào)度從Kafka到HDFS的kettle任務(wù)腳本

    用海豚調(diào)度器定時(shí)調(diào)度從Kafka到HDFS的kettle任務(wù)腳本

    在實(shí)際項(xiàng)目中,從Kafka到HDFS的數(shù)據(jù)是每天自動(dòng)生成一個(gè)文件,按日期區(qū)分。而且Kafka在不斷生產(chǎn)數(shù)據(jù),因此看看kettle是不是需要時(shí)刻運(yùn)行?能不能按照每日自動(dòng)生成數(shù)據(jù)文件? 為了測(cè)試實(shí)際項(xiàng)目中的海豚定時(shí)調(diào)度從Kafka到HDFS的Kettle任務(wù)情況,特地提前跑一下海豚定時(shí)調(diào)度這個(gè)

    2024年04月15日
    瀏覽(45)
  • 【DBeaver】驅(qū)動(dòng)添加-Hive和星環(huán)

    【DBeaver】驅(qū)動(dòng)添加-Hive和星環(huán)

    hive驅(qū)動(dòng)可以直接去官網(wǎng)下載官網(wǎng)地址,填一下個(gè)人信息。 如果想直接下載可以去我上次的資源下地址,需要用zip解壓。 星環(huán)驅(qū)動(dòng)是我第一次接觸,是國(guó)產(chǎn)的基于開源Hive驅(qū)動(dòng)自研的產(chǎn)品,我看到官網(wǎng)上有很多類型的數(shù)據(jù)庫(kù)產(chǎn)品,沒過兩天星環(huán)的銷售人員還給我打了電話,可見

    2024年02月03日
    瀏覽(11)
  • 告別手動(dòng)調(diào)度,海豚調(diào)度器 3.1.x 集群部署讓你輕松管理多機(jī)!

    轉(zhuǎn)載自第一片心意 由于海豚調(diào)度器官網(wǎng)的集群部署文檔寫的較亂,安裝過程中需要跳轉(zhuǎn)到很多地方進(jìn)行操作,所以自己總結(jié)了一篇可以直接跟著從頭到尾進(jìn)行操作的文檔,以方便后續(xù)的部署、升級(jí)、新增節(jié)點(diǎn)、減少節(jié)點(diǎn)的相關(guān)操作。 JDK:下載JDK (1.8+),安裝并配置 JAVA_HOME 環(huán)

    2024年04月24日
    瀏覽(25)
  • 海豚2來了丨DolphinDB 集成 DolphinScheduler,任務(wù)調(diào)度更輕松

    海豚2來了丨DolphinDB 集成 DolphinScheduler,任務(wù)調(diào)度更輕松

    DolphinDB 是一款高性能時(shí)序數(shù)據(jù)庫(kù)。DolphinDB 集成了功能強(qiáng)大的編程語(yǔ)言和高容量高速度的批流一體數(shù)據(jù)分析系統(tǒng),為海量數(shù)據(jù)(特別是時(shí)間序列數(shù)據(jù))的快速存儲(chǔ)、檢索、計(jì)算及分析提供一站式解決方案。在實(shí)際生產(chǎn)環(huán)境中,經(jīng)常存在 數(shù)據(jù)導(dǎo)入、轉(zhuǎn)換、查詢計(jì)算,更新等一系

    2024年02月03日
    瀏覽(24)
  • 最新版海豚調(diào)度dolphinscheduler-3.1.3安裝部署詳細(xì)教程

    最新版海豚調(diào)度dolphinscheduler-3.1.3安裝部署詳細(xì)教程

    本文基于Ambari集群搭建最新版本的海豚調(diào)度dolphinscheduler-3.1.3版本,后續(xù)會(huì)嘗試整合到Ambari中。 安裝dolphinscheduler需要在環(huán)境中安裝如下依賴 ① JDK8 下載JDK (1.8+),安裝并配置 JAVA_HOME 環(huán)境變量,并將其下的 bin 目錄追加到 PATH 環(huán)境變量中 ② 數(shù)據(jù)庫(kù):PostgreSQL (8.2.15+) 或者 MySQL

    2023年04月15日
    瀏覽(24)
  • 一百六十八、Kettle——用海豚調(diào)度器定時(shí)調(diào)度從Kafka到HDFS的任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善)

    一百六十八、Kettle——用海豚調(diào)度器定時(shí)調(diào)度從Kafka到HDFS的任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善)

    在實(shí)際項(xiàng)目中,從Kafka到HDFS的數(shù)據(jù)是每天自動(dòng)生成一個(gè)文件,按日期區(qū)分。而且Kafka在不斷生產(chǎn)數(shù)據(jù),因此看看kettle是不是需要時(shí)刻運(yùn)行?能不能按照每日自動(dòng)生成數(shù)據(jù)文件? 為了測(cè)試實(shí)際項(xiàng)目中的海豚定時(shí)調(diào)度從Kafka到HDFS的kettle任務(wù)情況,特地提前跑一下海豚定時(shí)調(diào)度這個(gè)

    2024年02月10日
    瀏覽(28)
  • 一百六十五、Kettle——用海豚調(diào)度器調(diào)度Linux資源庫(kù)中的kettle任務(wù)腳本(親測(cè)、附流程截圖)

    一百六十五、Kettle——用海豚調(diào)度器調(diào)度Linux資源庫(kù)中的kettle任務(wù)腳本(親測(cè)、附流程截圖)

    在Linux上腳本運(yùn)行kettle的轉(zhuǎn)換任務(wù)、無(wú)論是Linux本地還是Linux資源庫(kù)都成功后,接下來就是用海豚調(diào)度Linux上kettle任務(wù) 尤其是團(tuán)隊(duì)開發(fā)中,基本都要使用共享資源庫(kù),所以我直接使用海豚調(diào)度Linux資源庫(kù)的kettle任務(wù)腳本 1、先開啟zookeeper服務(wù) 2、再開啟海豚調(diào)度器服務(wù) 3、開啟服

    2024年02月11日
    瀏覽(54)
  • 海豚調(diào)度 DolphinScheduler(2.x和3.x版本) 本地環(huán)境搭建,方便本地調(diào)式代碼

    海豚調(diào)度 DolphinScheduler(2.x和3.x版本) 本地環(huán)境搭建,方便本地調(diào)式代碼

    ?? 本系列文章是 DolphinScheduler 由淺入深的教程,涵蓋搭建、二開迭代、核心原理解讀、運(yùn)維和管理等一系列內(nèi)容。適用于想對(duì) DolphinScheduler了解或想要加深理解的讀者。 祝開卷有益。 大數(shù)據(jù)學(xué)習(xí)指南 DolphinScheduler 的開源版本有不少的 BUG,所以在公司生產(chǎn)使用的話,需要做二

    2024年02月11日
    瀏覽(35)
  • 【大數(shù)據(jù)進(jìn)階第三階段之DolphinScheduler學(xué)習(xí)筆記】DolphinScheduler(海豚調(diào)度)的部署指南

    【大數(shù)據(jù)進(jìn)階第三階段之DolphinScheduler學(xué)習(xí)筆記】DolphinScheduler(海豚調(diào)度)的部署指南

    參考官網(wǎng)部署方式:https://dolphinscheduler.apache.org/zh-cn/docs/3.1.3/guide/installation/standalone 部署方式:?jiǎn)螜C(jī)部署,偽集群部署,集群部署。 如果是新手,想要體驗(yàn) DolphinScheduler 的功能,推薦使用Standalone方式體檢。如果你是在生產(chǎn)中使用,推薦使用 集群部署或者 kubernetes。 Standalone

    2024年01月22日
    瀏覽(18)
  • 一百六十八、Kettle——用海豚調(diào)度器定時(shí)調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善)

    一百六十八、Kettle——用海豚調(diào)度器定時(shí)調(diào)度從Kafka到HDFS的kettle任務(wù)腳本(持續(xù)更新追蹤、持續(xù)完善)

    在實(shí)際項(xiàng)目中,從Kafka到HDFS的數(shù)據(jù)是每天自動(dòng)生成一個(gè)文件,按日期區(qū)分。而且Kafka在不斷生產(chǎn)數(shù)據(jù),因此看看kettle是不是需要時(shí)刻運(yùn)行?能不能按照每日自動(dòng)生成數(shù)據(jù)文件? 為了測(cè)試實(shí)際項(xiàng)目中的海豚定時(shí)調(diào)度從Kafka到HDFS的kettle任務(wù)情況,特地提前跑一下海豚定時(shí)調(diào)度這個(gè)

    2024年02月09日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包