国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【Spark】concat、concat_ws函數(shù)的使用

這篇具有很好參考價值的文章主要介紹了【Spark】concat、concat_ws函數(shù)的使用。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

前言/簡介

實踐應(yīng)用

1、concat()函數(shù)

2、concat_ws()函數(shù)


前言/簡介

????????在使用Spark-hive技術(shù)處理邏輯時,經(jīng)常會使用concat()、和concat_ws()字符串連接函數(shù)。這兩個函數(shù)在spark的用戶自定義函數(shù)和hive的用戶自定義函數(shù)中都存在,Spark也是支持hive用戶自定義函數(shù)的。兩者主要使用區(qū)別如下:

  1. concat():只要其中一個字符串為null,結(jié)果將返回null;
  2. concat_ws():第一個參數(shù)為字符串分隔符設(shè)置,只要有一個字符串不為null,返回結(jié)果就不會為null;

實踐應(yīng)用

1、concat()函數(shù)

select concat("我是","一名","攻城獅") from tmp;
我是一名攻城獅

select concat("我是",null,"攻城獅") from tmp;
NULL?

2、concat_ws()函數(shù)

select concat_ws(",","我是","一名","攻城獅") from tmp;
我是,一名,攻城獅

select concat_ws(",","我是",null,"攻城獅") from tmp;
我是,攻城獅

在hive中null和NULL等價;?文章來源地址http://www.zghlxwxcb.cn/news/detail-607957.html

到了這里,關(guān)于【Spark】concat、concat_ws函數(shù)的使用的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • hive的concat()、concat_ws()和collect_list()、collect_set()的用法

    hive的concat()、concat_ws()和collect_list()、collect_set()的用法

    concat():函數(shù)在連接字符串的時候,只要其中一個是NULL,那么將返回NULL。 concat_ws():函數(shù)在連接字符串的時候,只要有一個字符串不是NULL,就不會返回NULL。concat_ws():函數(shù)需要指定分隔符。 他們都是將分組中的某列轉(zhuǎn)為一個數(shù)組返回,不同的是collect_list不去重,而collect_s

    2024年02月04日
    瀏覽(25)
  • Spark_SQL函數(shù)定義(定義UDF函數(shù)、使用窗口函數(shù))

    Spark_SQL函數(shù)定義(定義UDF函數(shù)、使用窗口函數(shù))

    ????????????????? ??一、UDF函數(shù)定義 ? ? ? ? (1)函數(shù)定義 ? ? ? ? (2)Spark支持定義函數(shù) ? ? ? ? (3)定義UDF函數(shù) ? ? ? ? ? ? ? ? (4)定義返回Array類型的UDF ????????(5)定義返回字典類型的UDF 二、窗口函數(shù) ? ? ? ? (1)開窗函數(shù)簡述 ? ? ? ? (2)

    2024年02月03日
    瀏覽(19)
  • Spark 7:Spark SQL 函數(shù)定義

    Spark 7:Spark SQL 函數(shù)定義

    SparkSQL 定義UDF函數(shù) 方式1語法: udf對象 = sparksession.udf.register(參數(shù)1,參數(shù)2,參數(shù)3) 參數(shù)1:UDF名稱,可用于SQL風(fēng)格 參數(shù)2:被注冊成UDF的方法名 參數(shù)3:聲明UDF的返回值類型 udf對象: 返回值對象,是一個UDF對象,可用于DSL風(fēng)格 方式2語法: udf對象 = F.udf(參數(shù)1, 參數(shù)2) 參數(shù)

    2024年02月11日
    瀏覽(21)
  • 大數(shù)據(jù)技術(shù)之Spark——Spark SQL

    大數(shù)據(jù)技術(shù)之Spark——Spark SQL

    ? ? ? ? Spark SQL是Spark用于結(jié)構(gòu)化數(shù)據(jù)處理的Spark模塊。 ????????我們之前學(xué)習(xí)過hive,hive是一個基于hadoop的SQL引擎工具,目的是為了簡化mapreduce的開發(fā)。由于mapreduce開發(fā)效率不高,且學(xué)習(xí)較為困難,為了提高mapreduce的開發(fā)效率,出現(xiàn)了hive,用SQL的方式來簡化mapreduce:hiv

    2024年02月12日
    瀏覽(20)
  • Spark SQL函數(shù)定義

    Spark SQL函數(shù)定義

    目錄 窗口函數(shù) SQL函數(shù)分類 Spark原生自定義UDF函數(shù) Pandas的UDF函數(shù) Apache Arrow框架基本介紹 基于Arrow完成Pandas DataFrame和Spark DataFrame互轉(zhuǎn) 基于Pandas完成UDF函數(shù) ?自定義UDF函數(shù) 自定義UDAF函數(shù) 分析函數(shù) over(partition by xxx order by xxx [asc|desc] [rows between xxx and xxx]) 分析函數(shù)可以大致分成如

    2024年01月21日
    瀏覽(30)
  • Spark SQL 內(nèi)置函數(shù)

    Spark SQL 內(nèi)置函數(shù)

    1、10類內(nèi)置函數(shù) Spark SQL內(nèi)置了大量的函數(shù),位于API org.apache.spark.sql.functions中。這些函數(shù)主要分為10類:UDF函數(shù)、聚合函數(shù)、日期函數(shù)、排序函數(shù)、非聚合函數(shù)、數(shù)學(xué)函數(shù)、混雜函數(shù)、窗口函數(shù)、字符串函數(shù)、集合函數(shù),大部分函數(shù)與Hive中相同。 2、兩種使用方式 使用內(nèi)置函

    2024年02月09日
    瀏覽(19)
  • 大數(shù)據(jù)技術(shù)(入門篇)--- 使用Spring Boot 操作 CDH6.2.0 Spark SQL進(jìn)行離線計算

    大數(shù)據(jù)技術(shù)(入門篇)--- 使用Spring Boot 操作 CDH6.2.0 Spark SQL進(jìn)行離線計算

    CDH 6.2.0 搭建的環(huán)境,并不能直接使用 spark 相關(guān)資源,需要對此服務(wù)端環(huán)境進(jìn)行一些修改 Spark 目前僅支持 JDK1.8, Java項目運行環(huán)境只能使用JDK 1.8 我這里使用的是 CDH6.2.0集群,因此使用的依賴為CDH專用依賴,需要先添加倉庫 spark 使用scala 語言編寫,因此項目中使用的scala依賴版

    2024年02月08日
    瀏覽(26)
  • 16 | Spark SQL 的 UDF(用戶自定義函數(shù))

    UDF(用戶自定義函數(shù)) :Spark SQL 允許用戶定義自定義函數(shù),以便在 SQL 查詢或 DataFrame 操作中使用。這些 UDF 可以擴(kuò)展 Spark SQL 的功能,使用戶能夠執(zhí)行更復(fù)雜的數(shù)據(jù)操作。 示例:

    2024年02月10日
    瀏覽(21)
  • Spark SQL示例用法所有函數(shù)示例權(quán)威詳解一【建議收藏】

    Spark中所有功能的入口點是 SparkSession 類。要創(chuàng)建一個基本的 SparkSession ,只需使用 SparkSession.builder() : 完整示例代碼可在Spark存儲庫的“examples/src/main/scala/org/apache/spark/examples/sql/SparkSQLExample.scala”中找到。 在Spark 2.0中, SparkSession 提供了 對Hive功能的內(nèi)置支持 ,包括 使用Hi

    2024年02月05日
    瀏覽(20)
  • 大數(shù)據(jù)技術(shù)之Spark SQL——解析JSON字符串

    大數(shù)據(jù)技術(shù)之Spark SQL——解析JSON字符串

    目錄 一、數(shù)據(jù)準(zhǔn)備 1)Department ?2)School 3)Student 4)Teacher 5)實例化對象 結(jié)構(gòu)如下: 二、加載數(shù)據(jù) 數(shù)據(jù)展示? 三、日志數(shù)據(jù)加載 輸出結(jié)果? sc.textFile讀取數(shù)據(jù)源,并對結(jié)構(gòu)化數(shù)據(jù)進(jìn)行拆分 ? ? ? ? ? 同樣的,除了json格式字符串,我們也可以用類似的方法來加載日志數(shù)據(jù)。

    2024年02月04日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包