国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

生態(tài)擴(kuò)展Spark Doris Connector

這篇具有很好參考價值的文章主要介紹了生態(tài)擴(kuò)展Spark Doris Connector。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

生態(tài)擴(kuò)展Spark Doris Connector
doris官網(wǎng)去查找相匹配的spark

spark的安裝:

tar -zxvf spark-3.1.2-bin-hadoop3.2.tgz
  mv spark-3.1.2-bin-hadoop3.2 /opt/spark

spark環(huán)境配置:vim /etc/profile

export SPARK_HOME=/opt/spark
export PATH=$PATH:$SPARK_HOME/bin

將編譯好的spark-doris-connector-3.3_2.12-1.3.0-SNAPSHOT.jar復(fù)制到spark的jars目錄

cp spark-doris-connector-3.2_2.12-1.3.0-SNAPSHOT.jar /opt/spark/jars/

代碼庫地址:https://github.com/apache/doris-spark-connector
編譯與安裝
準(zhǔn)備工作
修改custom_env.sh.tpl文件,重命名為custom_env.sh
在源碼目錄下執(zhí)行: sh build.sh 根據(jù)提示輸入你需要的 Scala 2.12與 Spark3.2.3 版本進(jìn)行編譯。

驗證:文章來源地址http://www.zghlxwxcb.cn/news/detail-741167.html

scala> import org.apache.doris.spark._
import org.apache.doris.spark._

scala>

scala> val doris = spark.sql(
     |     s"""
     |     |CREATE TEMPORARY VIEW spark_doris
     |     |USING doris
     |     |OPTIONS(
     |     | "table.identifier"="demo.example_tbl",
     |     | "fenodes"="10.63.0.181:8030",
     |     | "user"="root",
     |     | "password"=""
     |     |);
     |     |""".stripMargin)
doris: org.apache.spark.sql.DataFrame = []

scala>

scala> spark.sql("SELECT * FROM spark_doris;").show
+-------+----------+----+---+---+-------------------+----+--------------+--------------+
|user_id|      date|city|age|sex|    last_visit_date|cost|max_dwell_time|min_dwell_time|
+-------+----------+----+---+---+-------------------+----+--------------+--------------+
|  10000|2017-10-01|北京| 20|  0|2017-10-01 07:00:00|  35|            10|             2|
|  10001|2017-10-01|北京| 30|  1|2017-10-01 17:05:45|   2|            22|            22|
|  10002|2017-10-02|上海| 20|  1|2017-10-02 12:59:12| 200|             5|             5|
|  10003|2017-10-02|廣州| 32|  0|2017-10-02 11:20:00|  30|            11|            11|
|  10004|2017-10-01|深圳| 35|  0|2017-10-01 10:00:15| 100|             3|             3|
|  10004|2017-10-03|深圳| 35|  0|2017-10-03 10:20:22|  11|             6|             6|
+-------+----------+----+---+---+-------------------+----+--------------+--------------+


scala>

到了這里,關(guān)于生態(tài)擴(kuò)展Spark Doris Connector的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 大數(shù)據(jù)學(xué)習(xí)06-Spark分布式集群部署

    大數(shù)據(jù)學(xué)習(xí)06-Spark分布式集群部署

    配置好IP vim /etc/sysconfig/network-scripts/ifcfg-ens33 修改主機(jī)名 vi /etc/hostname 做好IP映射 vim /etc/hosts 關(guān)閉防火墻 systemctl status firewalld systemctl stop firewalld systemctl disable firewalld 配置SSH免密登錄 ssh-keygen -t rsa 下載Scala安裝包 配置環(huán)境變量 添加如下配置 使環(huán)境生效 驗證 Spark官網(wǎng) 解壓 上

    2024年02月10日
    瀏覽(98)
  • 大數(shù)據(jù)開發(fā)之Spark(RDD彈性分布式數(shù)據(jù)集)

    大數(shù)據(jù)開發(fā)之Spark(RDD彈性分布式數(shù)據(jù)集)

    rdd(resilient distributed dataset)叫做彈性分布式數(shù)據(jù)集,是spark中最基本的數(shù)據(jù)抽象。 代碼中是一個抽象類,它代表一個彈性的、不可變、可分區(qū)、里面的元素可并行計算的集合。 1.1.1 rdd類比工廠生產(chǎn) 1.1.2 wordcount工作流程 1、一組分區(qū)(partition),即是數(shù)據(jù)集的基本組成單位,

    2024年01月24日
    瀏覽(87)
  • 大數(shù)據(jù)課程K2——Spark的RDD彈性分布式數(shù)據(jù)集

    大數(shù)據(jù)課程K2——Spark的RDD彈性分布式數(shù)據(jù)集

    文章作者郵箱:yugongshiye@sina.cn? ? ? ? ? ? ? 地址:廣東惠州 ? 了解Spark的RDD結(jié)構(gòu); ??掌握Spark的RDD操作方法; ??掌握Spark的RDD常用變換方法、常用執(zhí)行方法; 初學(xué)Spark時,把RDD看做是一個集合類型(類似于Array或List),用于存儲數(shù)據(jù)和操作數(shù)據(jù),但RDD和普通集合的區(qū)別

    2024年02月12日
    瀏覽(98)
  • 大數(shù)據(jù)開源框架環(huán)境搭建(七)——Spark完全分布式集群的安裝部署

    大數(shù)據(jù)開源框架環(huán)境搭建(七)——Spark完全分布式集群的安裝部署

    前言:七八九用于Spark的編程實驗 大數(shù)據(jù)開源框架之基于Spark的氣象數(shù)據(jù)處理與分析_木子一個Lee的博客-CSDN博客_spark輿情分析 目錄 實驗環(huán)境: 實驗步驟: 一、解壓 二、配置環(huán)境變量:? 三、修改配置文件? 1.修改spark-env.sh配置文件: 2.修改配置文件slaves: 3.分發(fā)配置文件:

    2024年02月11日
    瀏覽(94)
  • 云計算與大數(shù)據(jù)第16章 分布式內(nèi)存計算平臺Spark習(xí)題

    1、Spark是Hadoop生態(tài)(? B? )組件的替代方案。 A. Hadoop? ???B. MapReduce ???????C. Yarn ????????????D.HDFS 2、以下(? D? )不是Spark的主要組件。 A. Driver?? ???B. SparkContext ??????C. ClusterManager D. ResourceManager 3、Spark中的Executor是(? A? )。 A.執(zhí)行器????? B.主節(jié)

    2024年02月14日
    瀏覽(449)
  • 分布式計算中的大數(shù)據(jù)處理:Hadoop與Spark的性能優(yōu)化

    大數(shù)據(jù)處理是現(xiàn)代計算機(jī)科學(xué)的一個重要領(lǐng)域,它涉及到處理海量數(shù)據(jù)的技術(shù)和方法。隨著互聯(lián)網(wǎng)的發(fā)展,數(shù)據(jù)的規(guī)模不斷增長,傳統(tǒng)的計算方法已經(jīng)無法滿足需求。因此,分布式計算技術(shù)逐漸成為了主流。 Hadoop和Spark是目前最為流行的分布式計算框架之一,它們都提供了高

    2024年01月23日
    瀏覽(94)
  • 數(shù)據(jù)存儲和分布式計算的實際應(yīng)用:如何使用Spark和Flink進(jìn)行數(shù)據(jù)處理和分析

    作為一名人工智能專家,程序員和軟件架構(gòu)師,我經(jīng)常涉及到數(shù)據(jù)處理和分析。在當(dāng)前大數(shù)據(jù)和云計算的時代,分布式計算已經(jīng)成為了一個重要的技術(shù)方向。Spark和Flink是當(dāng)前比較流行的分布式計算框架,它們提供了強(qiáng)大的分布式計算和數(shù)據(jù)分析功能,為數(shù)據(jù)處理和分析提供了

    2024年02月16日
    瀏覽(92)
  • 【Spark分布式內(nèi)存計算框架——Spark 基礎(chǔ)環(huán)境】1. Spark框架概述

    【Spark分布式內(nèi)存計算框架——Spark 基礎(chǔ)環(huán)境】1. Spark框架概述

    第一章 說明 整個Spark 框架分為如下7個部分,總的來說分為Spark 基礎(chǔ)環(huán)境、Spark 離線分析和Spark實時分析三個大的方面,如下圖所示: 第一方面、Spark 基礎(chǔ)環(huán)境 主要講述Spark框架安裝部署及開發(fā)運行,如何在本地模式和集群模式運行,使用spark-shell及IDEA開發(fā)應(yīng)用程序,測試及

    2024年02月11日
    瀏覽(92)
  • 分布式計算框架:Spark、Dask、Ray
分布式計算哪家強(qiáng):Spark、Dask、Ray

    分布式計算框架:Spark、Dask、Ray 分布式計算哪家強(qiáng):Spark、Dask、Ray

    目錄 什么是分布式計算 分布式計算哪家強(qiáng):Spark、Dask、Ray 2 選擇正確的框架 2.1 Spark 2.2 Dask 2.3 Ray 分布式計算是一種計算方法,和集中式計算是相對的。 隨著計算技術(shù)的發(fā)展, 有些應(yīng)用需要非常巨大的計算能力才能完成,如果采用集中式計算,需要耗費相當(dāng)長的時間來完成

    2024年02月11日
    瀏覽(102)
  • Spark單機(jī)偽分布式環(huán)境搭建、完全分布式環(huán)境搭建、Spark-on-yarn模式搭建

    Spark單機(jī)偽分布式環(huán)境搭建、完全分布式環(huán)境搭建、Spark-on-yarn模式搭建

    搭建Spark需要先配置好scala環(huán)境。三種Spark環(huán)境搭建互不關(guān)聯(lián),都是從零開始搭建。 如果將文章中的配置文件修改內(nèi)容復(fù)制粘貼的話,所有配置文件添加的內(nèi)容后面的注釋記得刪除,可能會報錯。保險一點刪除最好。 上傳安裝包解壓并重命名 rz上傳 如果沒有安裝rz可以使用命

    2024年02月06日
    瀏覽(106)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包