国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

這篇具有很好參考價值的文章主要介紹了Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

零、本節(jié)學習目標

  1. 利用RDD計算總分與平均分
  2. 利用RDD統(tǒng)計每日新增用戶
  3. 利用RDD實現(xiàn)分組排行榜

一、利用RDD計算總分與平均分

(一)提出任務

  • 針對成績表,計算每個學生總分和平均分

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?文章來源地址http://www.zghlxwxcb.cn/news/detail-462220.html

(二)實現(xiàn)思路

  • 讀取成績文件,生成lines;定義二元組成績列表;遍歷lines,填充二元組成績列表;基于二元組成績列表創(chuàng)建RDD;對rdd按鍵歸約得到rdd1,計算總分;將rdd1映射成rdd2,計算總分與平均分。

(三)準備工作

1、啟動HDFS服務

  • 執(zhí)行命令:start-dfs.sh

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

2、啟動Spark服務

  • 執(zhí)行命令:start-all.sh

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

3、在本地創(chuàng)建成績文件

  • /home里創(chuàng)建scores.txt文件

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

4、將成績文件上傳到HDFS

  • 在HDFS上創(chuàng)建/scoresumavg/input目錄,將成績文件上傳至該目錄

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

四)完成任務

1、在Spark Shell里完成任務

(1)讀取成績文件,生成RDD

  • 執(zhí)行命令:val lines = sc.textFile("hdfs://master:9000/scoresumavg/input/scores.txt")

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

(2)定義二元組成績列表

  • 執(zhí)行命令:import scala.collection.mutable.ListBuffer
  • 執(zhí)行命令:val scores = new ListBuffer[(String, Int)]()

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

(3)利用RDD填充二元組成績列表

lines.collect.foreach(line => {                 
  val fields = line.split(" ")                  
  scores.append((fields(0), fields(1).toInt))   
  scores.append((fields(0), fields(2).toInt))   
  scores.append((fields(0), fields(3).toInt))   
})
scores.foreach(println)                                        
  • 執(zhí)行上述代碼

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

(4)基于二元組成績列表創(chuàng)建RDD

  • 執(zhí)行命令:val rdd = sc.makeRDD(scores);

?Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

(5)對rdd按鍵歸約得到rdd1,計算總分

  • 執(zhí)行命令:val rdd1 = rdd.reduceByKey(_ + _)

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

(6)將rdd1映射成rdd2,計算總分與平均分

  • 執(zhí)行命令:val rdd2 = rdd1.map(score => (score._1, score._2, (score._2 / 3.0).formatted("%.2f")))

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

2、在IntelliJ IDEA里完成任務

(1)打開RDD項目

  • SparkRDDDemo

(2)創(chuàng)建計算總分平均分對象

  • net.cl.rdd包里創(chuàng)建day07子包,然后在子包里創(chuàng)建CalculateSumAvg對象
package net.huawei.rdd.day07

import org.apache.spark.{SparkConf, SparkContext}

import scala.collection.mutable.ListBuffer

/**
 * 功能:統(tǒng)計總分與平均分
 * 作者:華衛(wèi)
 * 日期:2023年05月11日
 */
object CalculateSumAvg {
  def main(args: Array[String]): Unit = {
    // 創(chuàng)建Spark配置對象
    val conf = new SparkConf()
      .setAppName("CalculateSumAvg ") // 設置應用名稱
      .setMaster("local[*]") // 設置主節(jié)點位置(本地調(diào)試)
    // 基于Spark配置對象創(chuàng)建Spark容器
    val sc = new SparkContext(conf)
    // 讀取成績文件,生成RDD
    val lines = sc.textFile("hdfs://master:9000/scoresumavg/input/scores.txt")
    // 定義二元組成績列表
    val scores = new ListBuffer[(String, Int)]()
    // 利用RDD填充二元組成績列表
    lines.collect.foreach(line => {
      val fields = line.split(" ")
      scores.append((fields(0), fields(1).toInt))
      scores.append((fields(0), fields(2).toInt))
      scores.append((fields(0), fields(3).toInt))
    })
    // 基于二元組成績列表創(chuàng)建RDD
    val rdd = sc.makeRDD(scores);
    // 對rdd按鍵歸約得到rdd1,計算總分
    val rdd1 = rdd.reduceByKey(_ + _)
    // 將rdd1映射成rdd2,計算總分與平均分
    val rdd2 = rdd1.map(score => (score._1, score._2, (score._2 / 3.0).formatted("%.2f")))
    // 在控制臺輸出rdd2的內(nèi)容
    rdd2.collect.foreach(println)
    // 將rdd2內(nèi)容保存到HDFS指定位置
    rdd2.saveAsTextFile("hdfs://master:9000/scoresumavg/output")
    // 關閉Spark容器
    sc.stop()    
  }
}

(3)運行程序,查看結果

  • 運行程序CalculateSumAvg,控制臺結果

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

  • 查看HDFS的結果文件

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

二、利用RDD統(tǒng)計每日新增用戶

(一)提出任務

  • 已知有以下用戶訪問歷史數(shù)據(jù),第一列為用戶訪問網(wǎng)站的日期,第二列為用戶名。
2023-05-01,mike
2023-05-01,alice
2023-05-01,brown
2023-05-02,mike
2023-05-02,alice
2023-05-02,green
2023-05-03,alice
2023-05-03,smith
2023-05-03,brian

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例?

?

  • 現(xiàn)需要根據(jù)上述數(shù)據(jù)統(tǒng)計每日新增的用戶數(shù)量,期望統(tǒng)計結果。
2023-05-01新增用戶數(shù):3
2023-05-02新增用戶數(shù):1
2023-05-03新增用戶數(shù):2
  • 即2023-05-01新增了3個用戶(分別為mike、alice、brown),2023-05-02新增了1個用戶(green),2023-05-03新增了兩個用戶(分別為smith、brian)。

(二)實現(xiàn)思路

  • 使用倒排索引法,若將用戶名看作關鍵詞,訪問日期看作文檔ID,則用戶名與訪問日期的映射關系如下圖所示。

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

  • 若同一個用戶對應多個訪問日期,則最小的日期為該用戶的注冊日期,即新增日期,其他日期為重復訪問日期,不應統(tǒng)計在內(nèi)。因此每個用戶應該只計算用戶訪問的最小日期即可。如下圖所示,將每個用戶訪問的最小日期都移到第一列,第一列為有效數(shù)據(jù),只統(tǒng)計第一列中每個日期的出現(xiàn)次數(shù),即為對應日期的新增用戶數(shù)。

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

(三)準備工作

1、在本地創(chuàng)建用戶文件

  • /home目錄里創(chuàng)建users.txt文件

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

2、將用戶文件上傳到HDFS指定位置

  • 先創(chuàng)建/newusers/input目錄,再將用戶文件上傳到該目錄

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

(四)完成任務

1、在Spark Shell里完成任務

(1)讀取文件,得到RDD

  • 執(zhí)行命令:val rdd1 = sc.textFile("hdfs://master:9000/newusers/input/users.txt")

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

(2)倒排,互換RDD中元組的元素順序

val rdd2 = rdd1.map(
   line => {
     val fields = line.split(",")
      (fields(1), fields(0))
   }
)
rdd2.collect.foreach(println)
  • 執(zhí)行上述語句

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

(3)倒排后的RDD按鍵分組

  • 執(zhí)行命令:val rdd3 = rdd2.groupByKey()

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

(4)取分組后的日期集合最小值,計數(shù)為1

  • 執(zhí)行命令:val rdd4 = rdd3.map(line => (line._2.min, 1))

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

(5)按鍵計數(shù),得到每日新增用戶數(shù)

  • 執(zhí)行命令:val result = rdd4.countByKey()

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

  • 執(zhí)行命令:result.keys.foreach(key => println(key + "新增用戶:" + result(key)))

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

(6)讓輸出結果按日期升序

  • 映射不能直接排序,只能讓鍵集轉(zhuǎn)成列表之后先排序,再遍歷鍵集輸出映射
  • 執(zhí)行命令:val keys = result.keys.toList.sorted,讓鍵集升序排列

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

2、在IntelliJ IDEA里完成任務

(1)打開RDD項目

  • SparkRDDDemo

(2)創(chuàng)建統(tǒng)計新增用戶對象

  • net.cl.day07包里創(chuàng)建CountNewUsers對象
package net.cl.rdd.day07

import org.apache.spark.{SparkConf, SparkContext}

object CountNewUsers {
  def main(args: Array[String]): Unit = {
    // 創(chuàng)建Spark配置對象
    val conf = new SparkConf()
      .setAppName("CountNewUsers") // 設置應用名稱
      .setMaster("local[*]") // 設置主節(jié)點位置(本地調(diào)試)
    // 基于Spark配置對象創(chuàng)建Spark容器
    val sc = new SparkContext(conf)
    // 讀取文件,得到RDD
    val rdd1 = sc.textFile("hdfs://master:9000/newusers/input/users.txt")
    // 倒排,互換RDD中元組的元素順序
    val rdd2 = rdd1.map(
      line => {
        val fields = line.split(",")
        (fields(1), fields(0))
      }
    )
    // 倒排后的RDD按鍵分組
    val rdd3 = rdd2.groupByKey()
    // 取分組后的日期集合最小值,計數(shù)為1
    val rdd4 = rdd3.map(line => (line._2.min, 1))
    // 按鍵計數(shù),得到每日新增用戶數(shù)
    val result = rdd4.countByKey()
    // 讓統(tǒng)計結果按日期升序
    val keys = result.keys.toList.sorted
    keys.foreach(key => println(key + "新增用戶:" + result(key)))
    // 停止Spark容器
    sc.stop()
  }
}

(3)運行程序,查看結果

  • 運行程序CountNewUsers,控制臺結果

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

三、利用RDD實現(xiàn)分組排行榜

(一)提出任務

  • 分組求TopN是大數(shù)據(jù)領域常見的需求,主要是根據(jù)數(shù)據(jù)的某一列進行分組,然后將分組后的每一組數(shù)據(jù)按照指定的列進行排序,最后取每一組的前N行數(shù)據(jù)。
  • 有一組學生成績數(shù)據(jù)
張三豐 90
李孟達 85
張三豐 87
王曉云 93
李孟達 65
張三豐 76
王曉云 78
李孟達 60
張三豐 94
王曉云 97
李孟達 88
張三豐 80
王曉云 88
李孟達 82
王曉云 98
  • 同一個學生有多門成績,現(xiàn)需要計算每個學生分數(shù)最高的前3個成績,期望輸出結果如下所示
    張三豐:94 90 87
    李孟達:88 85 82
    王曉云:98 97 93
    

(二)實現(xiàn)思路

  • 使用Spark RDD的groupByKey()算子可以對(key, value)形式的RDD按照key進行分組,key相同的元素的value將聚合到一起,形成(key, value-list),將value-list中的元素降序排列取前N個即可。

(三)準備工作

1、在本地創(chuàng)建成績文件

  • /home目錄里創(chuàng)建grades.txt文件

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

2、將成績文件上傳到HDFS上指定目錄

  • grades.txt上傳到HDFS的/topn/input目錄

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

(四)完成任務

1、在Spark Shell里完成任務

(1)讀取成績文件得到RDD

  • 執(zhí)行命令:val lines = sc.textFile("hdfs://master:9000/topn/input/grades.txt")
  • grades.txt上傳到HDFS的/topn/input目錄

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

(2)利用映射算子生成二元組構成的RDD

val grades = lines.map(line => {
          val fields = line.split(" ")
          (fields(0), fields(1))
        })
grades.collect.foreach(println)
  • 執(zhí)行上述代碼

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

(3)按鍵分組得到新的二元組構成的RDD

  • 執(zhí)行命令:val groupGrades = grades.groupByKey()

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

(4)按值排序,取前三

val top3 = groupGrades.map(item => {
          val name = item._1
          val top3 = item._2.toList.sortWith(_ > _).take(3)
          (name, top3)
        })
top3.collect.foreach(println)
  • 執(zhí)行上述代碼

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

(5)按指定格式輸出結果

top3.collect.foreach(line => {
      val name = line._1
      var scores = ""
      line._2.foreach(score => scores = scores + " " + score)
      println(name + ":" + scores)
})
  • 執(zhí)行上述代碼

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

  • 其實,代碼可以優(yōu)化

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

2、在IntelliJ IDEA里完成任務

(1)打開RDD項目

  • SparkRDDDemo

(2)創(chuàng)建分組排行榜單例對象

  • net.cl.rdd.day07包里創(chuàng)建GradeTopN單例對象
package net.huawei.rdd.day07

import org.apache.spark.{SparkConf, SparkContext}

/**
 * 功能:成績分組排行榜
 * 作者:華衛(wèi)
 * 日期:2023年05月11日
 */
object GradeTopN {
  def main(args: Array[String]): Unit = {
    // 創(chuàng)建Spark配置對象
    val conf = new SparkConf()
      .setAppName("GradeTopN") // 設置應用名稱
      .setMaster("local[*]") // 設置主節(jié)點位置(本地調(diào)試)
    // 基于Spark配置對象創(chuàng)建Spark容器
    val sc = new SparkContext(conf)
    // 實現(xiàn)分組排行榜
    val top3 = sc.textFile("hdfs://master:9000/topn/input/grades.txt")
      .map(line => {
        val fields = line.split(" ")
        (fields(0), fields(1))
      }) // 將每行成績映射成二元組(name, grade)
      .groupByKey() // 按鍵分組
      .map(item => {
        val name = item._1
        val top3 = item._2.toList.sortWith(_ > _).take(3)
        (name, top3)
      }) // 值排序,取前三
    // 輸出分組排行榜結果
    top3.collect.foreach(line => {
      val name = line._1      
      val scores = line._2.mkString(" ")
      println(name + ": " + scores)
    })
    // 停止Spark容器,結束任務
    sc.stop()
  }
}

(3)運行程序,查看結果

  • 在控制臺查看輸出結果

Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例

?

到了這里,關于Spark大數(shù)據(jù)處理講課筆記---Spark RDD典型案例的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • Spark大數(shù)據(jù)處理講課筆記4.1 Spark SQL概述、數(shù)據(jù)幀與數(shù)據(jù)集

    Spark大數(shù)據(jù)處理講課筆記4.1 Spark SQL概述、數(shù)據(jù)幀與數(shù)據(jù)集

    ? 目錄 零、本講學習目標 一、Spark SQL (一)Spark SQL概述 (二)Spark SQL功能 (三)Spark SQL結構 1、Spark SQL架構圖 2、Spark SQL三大過程 3、Spark SQL內(nèi)部五大組件 (四)Spark SQL工作流程 (五)Spark SQL主要特點 1、將SQL查詢與Spark應用程序無縫組合 2、Spark SQL以相同方式連接多種數(shù)據(jù)

    2024年02月09日
    瀏覽(25)
  • Spark大數(shù)據(jù)處理講課筆記4.2 Spark SQL數(shù)據(jù)源 - 基本操作

    Spark大數(shù)據(jù)處理講課筆記4.2 Spark SQL數(shù)據(jù)源 - 基本操作

    ? 目錄 零、本講學習目標 一、基本操作 二、默認數(shù)據(jù)源 (一)默認數(shù)據(jù)源Parquet (二)案例演示讀取Parquet文件 1、在Spark Shell中演示 2、通過Scala程序演示 三、手動指定數(shù)據(jù)源 (一)format()與option()方法概述 (二)案例演示讀取不同數(shù)據(jù)源 1、讀取房源csv文件 2、讀取json,保

    2024年02月09日
    瀏覽(26)
  • Spark大數(shù)據(jù)處理學習筆記(3.1)掌握RDD的創(chuàng)建

    文章目錄 一、準備工作 1.1 準備文件 1.1.1 準備本地系統(tǒng)文件 在/home目錄里創(chuàng)建test.txt 單詞用空格分隔 1.1.2 啟動HDFS服務 執(zhí)行命令:start-dfs.sh 1.1.3 上傳文件到HDFS 將test.txt上傳到HDFS的/park目錄里 查看文件內(nèi)容 1.2 啟動Spark Shell 1.2.1 啟動Spark服務 執(zhí)行命令:start-all.sh 1.2.2 啟動Sp

    2024年02月09日
    瀏覽(21)
  • Spark大數(shù)據(jù)處理學習筆記(3.2.2)掌握RDD算子

    Spark大數(shù)據(jù)處理學習筆記(3.2.2)掌握RDD算子

    銜接上文:http://t.csdn.cn/Z0Cfj 功能: reduce()算子按照傳入的函數(shù)進行歸約計算 案例: 計算1 + 2 + 3 + …+100的值 計算1 × 2 × 3 × 4 × 5 × 6 的值(階乘 - 累乘) 計算1 2 + 2 2 + 3 2 + 4 2 + 5**2的值(先映射,后歸約) 功能: collect()算子向Driver以數(shù)組形式返回數(shù)據(jù)集的所有元素。通常對

    2024年02月08日
    瀏覽(26)
  • Spark 大數(shù)據(jù)實戰(zhàn):基于 RDD 的大數(shù)據(jù)處理分析

    Spark 大數(shù)據(jù)實戰(zhàn):基于 RDD 的大數(shù)據(jù)處理分析

    之前筆者參加了公司內(nèi)部舉辦的一個 Big Data Workshop,接觸了一些 Spark 的皮毛,后來在工作中陸陸續(xù)續(xù)又學習了一些 Spark 的實戰(zhàn)知識。 本文筆者從小白的視角出發(fā),給大家普及 Spark 的應用知識。 Spark 集群是基于 Apache Spark 的分布式計算環(huán)境,用于處理 大規(guī)模數(shù)據(jù)集 的計算任

    2024年01月25日
    瀏覽(42)
  • GEE/PIE遙感大數(shù)據(jù)處理與典型案例丨數(shù)據(jù)整合Reduce、云端數(shù)據(jù)可視化、數(shù)據(jù)導入導出及資產(chǎn)管理、機器學習算法等

    GEE/PIE遙感大數(shù)據(jù)處理與典型案例丨數(shù)據(jù)整合Reduce、云端數(shù)據(jù)可視化、數(shù)據(jù)導入導出及資產(chǎn)管理、機器學習算法等

    目錄 ?專題一:初識GEE和PIE遙感云平臺 專題二:GEE和PIE影像大數(shù)據(jù)處理基礎 專題三:數(shù)據(jù)整合Reduce 專題四:云端數(shù)據(jù)可視化 專題五:數(shù)據(jù)導入導出及資產(chǎn)管理 專題六:機器學習算法 專題七:專題練習與回顧 更多應用 隨著航空、航天、近地空間等多個遙感平臺的不斷發(fā)展

    2024年02月11日
    瀏覽(23)
  • Spark大數(shù)據(jù)處理學習筆記(2.2)搭建Spark Standalone集群

    Spark大數(shù)據(jù)處理學習筆記(2.2)搭建Spark Standalone集群

    一、在master虛擬機上安裝配置Spark 1.1 將spark安裝包上傳到master虛擬機 下載Spark:pyw2 進入/opt目錄,查看上傳的spark安裝包 1.2 將spark安裝包解壓到指定目錄 執(zhí)行命令: tar -zxvf spark-3.3.2-bin-hadoop3.tgz 修改文件名:mv spark-3.3.2-bin-hadoop3 spark-3.3.2 1.3 配置spark環(huán)境變量 執(zhí)行命令:vim

    2024年02月09日
    瀏覽(25)
  • Spark大數(shù)據(jù)處理學習筆記(2.4)IDEA開發(fā)詞頻統(tǒng)計項目

    Spark大數(shù)據(jù)處理學習筆記(2.4)IDEA開發(fā)詞頻統(tǒng)計項目

    該文章主要為完成實訓任務,詳細實現(xiàn)過程及結果見【http://t.csdn.cn/0qE1L】 從Scala官網(wǎng)下載Scala2.12.15 - https://www.scala-lang.org/download/2.12.15.html 安裝在默認位置 安裝完畢 在命令行窗口查看Scala版本(必須要配置環(huán)境變量) 啟動HDFS服務 啟動Spark集群 在master虛擬機上創(chuàng)建單詞文件

    2024年02月08日
    瀏覽(34)
  • Spark重溫筆記(四):秒級處理龐大數(shù)據(jù)量的 SparkSQL 操作大全,能否成為你的工作備忘指南?

    前言:今天是溫習 Spark 的第 4 天啦!主要梳理了 SparkSQL 工作中常用的操作大全,以及演示了幾個企業(yè)級案例,希望對大家有幫助! Tips:\\\"分享是快樂的源泉??,在我的博客里,不僅有知識的海洋??,還有滿滿的正能量加持??,快來和我一起分享這份快樂吧??! 喜歡我的博

    2024年04月11日
    瀏覽(30)
  • 大數(shù)據(jù)處理:利用Spark進行大規(guī)模數(shù)據(jù)處理

    大數(shù)據(jù)處理是指對大規(guī)模、高速、多源、多樣化的數(shù)據(jù)進行處理、分析和挖掘的過程。隨著互聯(lián)網(wǎng)、人工智能、物聯(lián)網(wǎng)等領域的發(fā)展,大數(shù)據(jù)處理技術已經(jīng)成為當今科技的核心技術之一。Apache Spark是一個開源的大數(shù)據(jù)處理框架,它可以處理批量數(shù)據(jù)和流式數(shù)據(jù),并提供了一系

    2024年03月22日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包