国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

DataGrip編寫SQL語(yǔ)句操作Spark(Spark ThriftServer)

這篇具有很好參考價(jià)值的文章主要介紹了DataGrip編寫SQL語(yǔ)句操作Spark(Spark ThriftServer)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

1.Spark ThriftServer

Spark ThriftServer 相當(dāng)于一個(gè)持續(xù)性的Spark on Hive集成模式,可以啟動(dòng)并監(jiān)聽在10000端口,持續(xù)對(duì)外提供服務(wù),可以使用數(shù)據(jù)庫(kù)客戶端工具或代碼連接上來(lái),操作Spark
DataGrip編寫SQL語(yǔ)句操作Spark(Spark ThriftServer),數(shù)據(jù)計(jì)算與分析組件,分布式,spark,大數(shù)據(jù)
bin/spark-sql 腳本,類似于Hive的 bin/hive腳本
(內(nèi)部?jī)?nèi)置了hive的hiveServer2服務(wù)或Spark執(zhí)行引擎,每次腳本執(zhí)行,都會(huì)啟動(dòng)內(nèi)內(nèi)置的hiveServer2或Spark引擎),
一旦退出客戶端,服務(wù)端也就停止。

而, Spark的分布式執(zhí)行引擎,也即Spark ThriftServer服務(wù),是一個(gè)持續(xù)性的Spark on Hive集成模式,一旦啟動(dòng),持續(xù)對(duì)外提供服務(wù)。

可以使用DagaGrip、Pycharm、Navicat等數(shù)據(jù)庫(kù)客戶端產(chǎn)品,或代碼JDBC方式、或Beeline腳本,連接Spark ThriftServer服務(wù),直接編寫SQL語(yǔ)句,操作Spark。

2.啟動(dòng) Spark ThriftServer

SPARK_HOME=/export/server/spark
$SPARK_HOME/sbin/start-thriftserver.sh \
--hiveconf hive.server2.thrift.port=10000 \
--hiveconf hive.server2.thrift.bind.host=node1 \
--master local[2]

local[2]:指定線程并行度,一般是CPU核數(shù)2-3倍
master local, 每一條SQL在Local本地運(yùn)行
master yarn,  每一條SQL在Yarn集群中運(yùn)行

3.Beeline方式連接

cd /export/server/spark/bin
./beeline
輸入:
!connect jdbc:hive2://node1:10000
DataGrip編寫SQL語(yǔ)句操作Spark(Spark ThriftServer),數(shù)據(jù)計(jì)算與分析組件,分布式,spark,大數(shù)據(jù)

4.DataGrip方式連接

單擊"+"號(hào),或右鍵單擊 -> 選擇數(shù)據(jù)元 -> 選中 Other -> 選中 Apache Spark
DataGrip編寫SQL語(yǔ)句操作Spark(Spark ThriftServer),數(shù)據(jù)計(jì)算與分析組件,分布式,spark,大數(shù)據(jù)
新建數(shù)據(jù)源,填寫Spark ThriftServer機(jī)器地址、監(jiān)聽端口、訪問用戶
DataGrip編寫SQL語(yǔ)句操作Spark(Spark ThriftServer),數(shù)據(jù)計(jì)算與分析組件,分布式,spark,大數(shù)據(jù)
添加驅(qū)動(dòng)

DataGrip編寫SQL語(yǔ)句操作Spark(Spark ThriftServer),數(shù)據(jù)計(jì)算與分析組件,分布式,spark,大數(shù)據(jù)
配置成功,console窗口就可以直接寫SQL
DataGrip編寫SQL語(yǔ)句操作Spark(Spark ThriftServer),數(shù)據(jù)計(jì)算與分析組件,分布式,spark,大數(shù)據(jù)

5. 代碼方式

 spark = SparkSession.builder \
        .appName('spark on hive') \
        .master('local[*]') \
        .config('spark.sql.shuffle.partitions', 4) \
        .config('hive.metastore.uris', 'thrift://node1:9083') \
        .config('spark.sql.warehouse.dir', 'hdfs://node1:8020/user/hive/warehouse') \
        .enableHiveSupport() \
        .getOrCreate()

    # 2. 執(zhí)行相關(guān)的操作
    spark.sql("select * from pyspark_hive.stu; ").show()

6. SparkSQL運(yùn)行方式

thrift server服務(wù)出現(xiàn), 只是提供了新的方式來(lái)書寫SQL: .
beeline方式 或者 圖形化界面方式

適用于: 純 SQL的開發(fā)工作, 開發(fā)后, 形成一個(gè)個(gè)的SQL的腳本, 在部署上線的時(shí)候, 采用spark-sql提交運(yùn)行
.
./spark-sql -f 腳本
./spark-sql -e 'SQL語(yǔ)句‘
./spark-submit py文件或scala文件

7.參考文章

Spark On Hive:即Spark使用Hive的Metastore服務(wù)作為元數(shù)據(jù)管理服務(wù)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-527316.html

到了這里,關(guān)于DataGrip編寫SQL語(yǔ)句操作Spark(Spark ThriftServer)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 用SQL語(yǔ)句操作Oracle數(shù)據(jù)庫(kù)——數(shù)據(jù)更新

    用SQL語(yǔ)句操作Oracle數(shù)據(jù)庫(kù)——數(shù)據(jù)更新

    數(shù)據(jù)庫(kù)中的數(shù)據(jù)更新操作有3種:1)向表中添加若干行數(shù)據(jù)(增);2)刪除表中的若干行數(shù)據(jù)(刪);3)修改表中的數(shù)據(jù)(改)。對(duì)于這3種操作,SQL語(yǔ)言中有3種相應(yīng)的語(yǔ)句與之對(duì)應(yīng)。接下來(lái)讓我們逐一詳細(xì)地了解一下。 本文我們依然使用以下三個(gè)表來(lái)進(jìn)行數(shù)據(jù)更新操作:

    2024年01月19日
    瀏覽(34)
  • SQL語(yǔ)句詳解三-DML(數(shù)據(jù)操作語(yǔ)言)

    DML(數(shù)據(jù)操作語(yǔ)言):增刪改表中數(shù)據(jù),針對(duì)的對(duì)象是數(shù)據(jù)庫(kù)中表格的數(shù)據(jù)。 添加數(shù)據(jù) 語(yǔ)法 注意事項(xiàng) 列名 要和 值 一一對(duì)應(yīng) 如果表名后,不定義列名,則默認(rèn)給所有列添加值(方式二) 除了數(shù)字類型,其他類型需要使用 引號(hào)( 單雙都可以 ) 引起來(lái) 示例代碼 刪除數(shù)據(jù) 語(yǔ)法 注意

    2024年01月21日
    瀏覽(14)
  • Spark SQL數(shù)據(jù)源 - 基本操作

    Spark SQL數(shù)據(jù)源 - 基本操作

    一、案例演示讀取Parquet文件 執(zhí)行命令: cd $SPARK_HOME/examples/src/main/resources ,查看Spark的樣例數(shù)據(jù)文件users.parquet 將數(shù)據(jù)文件users.parquet上傳到HDFS的/datasource/input目錄 二、在Spark Shell中演示 啟動(dòng)Spark Shell,執(zhí)行命令: spark-shell --master spark://master:7077 執(zhí)行命令: val userdf = spark.read

    2024年02月09日
    瀏覽(21)
  • Spark SQL數(shù)據(jù)源的基本操作

    Spark SQL數(shù)據(jù)源的基本操作

    Spark SQL提供了兩個(gè)常用的加載數(shù)據(jù)和寫入數(shù)據(jù)的方法:load()方法和save()方法。load()方法可以加載外部數(shù)據(jù)源為一個(gè)DataFrame,save()方法可以將一個(gè)DataFrame寫入指定的數(shù)據(jù)源。 默認(rèn)情況下,load()方法和save()方法只支持Parquet格式的文件,Parquet文件是以二進(jìn)制方式存儲(chǔ)數(shù)據(jù)的,因此

    2024年02月09日
    瀏覽(26)
  • Spark大數(shù)據(jù)處理講課筆記4.2 Spark SQL數(shù)據(jù)源 - 基本操作

    Spark大數(shù)據(jù)處理講課筆記4.2 Spark SQL數(shù)據(jù)源 - 基本操作

    ? 目錄 零、本講學(xué)習(xí)目標(biāo) 一、基本操作 二、默認(rèn)數(shù)據(jù)源 (一)默認(rèn)數(shù)據(jù)源Parquet (二)案例演示讀取Parquet文件 1、在Spark Shell中演示 2、通過Scala程序演示 三、手動(dòng)指定數(shù)據(jù)源 (一)format()與option()方法概述 (二)案例演示讀取不同數(shù)據(jù)源 1、讀取房源csv文件 2、讀取json,保

    2024年02月09日
    瀏覽(26)
  • 4.2 Spark SQL數(shù)據(jù)源 - 基本操作

    4.2 Spark SQL數(shù)據(jù)源 - 基本操作

    案例演示讀取Parquet文件 查看Spark的樣例數(shù)據(jù)文件users.parquet 1、在Spark Shell中演示 啟動(dòng)Spark Shell 查看數(shù)據(jù)幀內(nèi)容 查看數(shù)據(jù)幀模式 對(duì)數(shù)據(jù)幀指定列進(jìn)行查詢,查詢結(jié)果依然是數(shù)據(jù)幀,然后通過write成員的save()方法寫入HDFS指定目錄 查看HDFS上的輸出結(jié)果 執(zhí)行SQL查詢 查看HDFS上的輸

    2024年02月08日
    瀏覽(28)
  • 數(shù)據(jù)庫(kù)應(yīng)用:MySQL數(shù)據(jù)庫(kù)SQL高級(jí)語(yǔ)句與操作

    數(shù)據(jù)庫(kù)應(yīng)用:MySQL數(shù)據(jù)庫(kù)SQL高級(jí)語(yǔ)句與操作

    目錄 一、理論 1.克隆表與清空表 2.SQL高級(jí)語(yǔ)句 3.SQL函數(shù) 4.SQL高級(jí)操作 5.MySQL中6種常見的約束 二、實(shí)驗(yàn) ?1.克隆表與清空表 2.SQL高級(jí)語(yǔ)句 3.SQL函數(shù) 4.SQL高級(jí)操作 5.主鍵表和外鍵表 ?三、總結(jié) 克隆表:將數(shù)據(jù)表的數(shù)據(jù)記錄生成到新的表中。 (1)克隆表 ①?先創(chuàng)建再導(dǎo)入 ②?創(chuàng)建

    2024年02月13日
    瀏覽(101)
  • 【MySQL 】:測(cè)試數(shù)據(jù)準(zhǔn)備、SQL語(yǔ)句規(guī)范與基本操作

    【MySQL 】:測(cè)試數(shù)據(jù)準(zhǔn)備、SQL語(yǔ)句規(guī)范與基本操作

    歡迎來(lái)到小K的MySQL專欄,本節(jié)將為大家準(zhǔn)備MySQL測(cè)試數(shù)據(jù)、以及帶來(lái)SQL語(yǔ)句規(guī)范、數(shù)據(jù)庫(kù)的基本操作的詳細(xì)講解 要學(xué)習(xí)SQL查詢語(yǔ)句,首先必須解決一個(gè)問題,數(shù)據(jù)問題。為了方便大家學(xué)習(xí)閱讀我的文章,在這里提供了一個(gè)test.sql文件 ? 登錄MySQL,輸入 source xxx/test.sql 導(dǎo)入sql文

    2024年02月10日
    瀏覽(32)
  • 【②MySQL 】:測(cè)試數(shù)據(jù)準(zhǔn)備、SQL語(yǔ)句規(guī)范與基本操作

    【②MySQL 】:測(cè)試數(shù)據(jù)準(zhǔn)備、SQL語(yǔ)句規(guī)范與基本操作

    歡迎來(lái)到小K的MySQL專欄,本節(jié)將為大家準(zhǔn)備MySQL測(cè)試數(shù)據(jù)、以及帶來(lái)SQL語(yǔ)句規(guī)范、數(shù)據(jù)庫(kù)的基本操作的詳細(xì)講解 要學(xué)習(xí)SQL查詢語(yǔ)句,首先必須解決一個(gè)問題,數(shù)據(jù)問題。為了方便大家學(xué)習(xí)閱讀我的文章,在這里提供了一個(gè)test.sql文件 ? 登錄MySQL,輸入 source xxx/test.sql 導(dǎo)入sql文

    2024年02月10日
    瀏覽(19)
  • IDEA編寫SQL語(yǔ)句沒有提示

    IDEA編寫SQL語(yǔ)句沒有提示

    當(dāng)使用IDEA編寫映射文件中相關(guān)的SQL語(yǔ)句時(shí),沒有出現(xiàn)如下圖所示的語(yǔ)句提示(MySQL為例) 解決: 1. 沒有建立數(shù)據(jù)庫(kù)的連接 導(dǎo)致原因可能時(shí)因?yàn)镮DEA沒有建立與本地?cái)?shù)據(jù)庫(kù)的連接,那么IDEA無(wú)法得到數(shù)據(jù)庫(kù)中的內(nèi)容,便無(wú)法做出提示,如果是此種情況,只需要建立IDEA與數(shù)據(jù)庫(kù)的

    2024年02月11日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包