国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Spark SQL報(bào)錯(cuò): Task failed while writing rows.

這篇具有很好參考價(jià)值的文章主要介紹了Spark SQL報(bào)錯(cuò): Task failed while writing rows.。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

錯(cuò)誤

今天運(yùn)行 Spark 任務(wù)時(shí)報(bào)了一個(gè)錯(cuò)誤,如下所示:

WARN scheduler.TaskSetManager: Lost task 9.0 in stage 3.0 (TID 69, xxx.xxx.xxx.com, executor 3): org.apache.spark.SparkException: Task failed while writing rows.
 at org.apache.spark.sql.execution.datasources.FileFormatWriter$.org$apache$spark$sql$execution$datasources$FileFormatWriter$$executeTask(FileFormatWriter.scala:254)
 at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$write$1.apply(FileFormatWriter.scala:169)
 at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$write$1.apply(FileFormatWriter.scala:168)
 at org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:90)
 at org.apache.spark.scheduler.Task.run(Task.scala:121)
 at org.apache.spark.executor.Executor$TaskRunner$$anonfun$10.apply(Executor.scala:402)
 at org.apache.spark.util.Utils$.tryWithSafeFinally(Utils.scala:1360)
 at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:408)
 at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
 at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
 at java.lang.Thread.run(Thread.java:748)
Caused by: java.lang.NullPointerException
 at java.lang.System.arraycopy(Native Method)
 at org.apache.hadoop.hive.ql.io.orc.DynamicByteArray.add(DynamicByteArray.java:115)
 at org.apache.hadoop.hive.ql.io.orc.StringRedBlackTree.addNewKey(StringRedBlackTree.java:48)
 at org.apache.hadoop.hive.ql.io.orc.StringRedBlackTree.add(StringRedBlackTree.java:55)
 at org.apache.hadoop.hive.ql.io.orc.WriterImpl$StringTreeWriter.write(WriterImpl.java:1211)
 at org.apache.hadoop.hive.ql.io.orc.WriterImpl$StructTreeWriter.write(WriterImpl.java:1734)
 at org.apache.hadoop.hive.ql.io.orc.WriterImpl.addRow(WriterImpl.java:2403)
 at org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat$OrcRecordWriter.write(OrcOutputFormat.java:86)
 at org.apache.spark.sql.hive.execution.HiveOutputWriter.write(HiveFileFormat.scala:149)
 at org.apache.spark.sql.execution.datasources.SingleDirectoryDataWriter.write(FileFormatDataWriter.scala:137)
 at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$org$apache$spark$sql$execution$datasources$FileFormatWriter$$executeTask$3.apply(FileFormatWriter.scala:242)
 at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$org$apache$spark$sql$execution$datasources$FileFormatWriter$$executeTask$3.apply(FileFormatWriter.scala:239)
 at org.apache.spark.util.Utils$.tryWithSafeFinallyAndFailureCallbacks(Utils.scala:1394)
 at org.apache.spark.sql.execution.datasources.FileFormatWriter$.org$apache$spark$sql$execution$datasources$FileFormatWriter$$executeTask(FileFormatWriter.scala:245)
 ...

ORC 僅在 HiveContext 中受支持,但這里使用 SQLContext。

解決辦法

SQLContext 存在一些問(wèn)題,嘗試使用 HiveContext。 使用以下配置來(lái)解決:

spark.sql.orc.impl=native

nativehive 二選一,native 是基于 ORC1.4,表示使用 Spark SQL 提供的本地ORC實(shí)現(xiàn)方式。hive 是基于 Hive 的 ORC1.2.1文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-620616.html

到了這里,關(guān)于Spark SQL報(bào)錯(cuò): Task failed while writing rows.的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Spark【Spark SQL(二)RDD轉(zhuǎn)換DataFrame、Spark SQL讀寫數(shù)據(jù)庫(kù) 】

    Spark【Spark SQL(二)RDD轉(zhuǎn)換DataFrame、Spark SQL讀寫數(shù)據(jù)庫(kù) 】

    Saprk 提供了兩種方法來(lái)實(shí)現(xiàn)從 RDD 轉(zhuǎn)換得到 DataFrame: 利用反射機(jī)制推斷 RDD 模式 使用編程方式定義 RDD 模式 下面使用到的數(shù)據(jù) people.txt : ????????在利用反射機(jī)制推斷 RDD 模式的過(guò)程時(shí),需要先定義一個(gè) case 類,因?yàn)橹挥?case 類才能被 Spark 隱式地轉(zhuǎn)換為DataFrame對(duì)象。 注意

    2024年02月09日
    瀏覽(26)
  • Spark學(xué)習(xí)(6)-Spark SQL

    Spark學(xué)習(xí)(6)-Spark SQL

    SparkSQL是Spark的一個(gè)模塊, 用于處理 海量結(jié)構(gòu)化數(shù)據(jù) 。 SparkSQL是非常成熟的 海量結(jié)構(gòu)化數(shù)據(jù)處理框架. 學(xué)習(xí)SparkSQL主要在2個(gè)點(diǎn): SparkSQL本身十分優(yōu)秀, 支持SQL語(yǔ)言性能強(qiáng)可以自動(dòng)優(yōu)化API簡(jiǎn)單兼容HIVE等等。 企業(yè)大面積在使用SparkSQL處理業(yè)務(wù)數(shù)據(jù)。 離線開(kāi)發(fā) 數(shù)倉(cāng)搭建 科學(xué)計(jì)算

    2024年02月16日
    瀏覽(12)
  • Spark【Spark SQL(三)DataSet】

    ?????????DataFrame 的出現(xiàn),讓 Spark 可以更好地處理結(jié)構(gòu)化數(shù)據(jù)的計(jì)算,但存在一個(gè)問(wèn)題:編譯時(shí)的類型安全問(wèn)題,為了解決它,Spark 引入了 DataSet API(DataFrame API 的擴(kuò)展)。DataSet 是分布式的數(shù)據(jù)集合,它提供了強(qiáng)類型支持,也就是給 RDD 的每行數(shù)據(jù)都添加了類型約束。 ?

    2024年02月09日
    瀏覽(17)
  • Spark 7:Spark SQL 函數(shù)定義

    Spark 7:Spark SQL 函數(shù)定義

    SparkSQL 定義UDF函數(shù) 方式1語(yǔ)法: udf對(duì)象 = sparksession.udf.register(參數(shù)1,參數(shù)2,參數(shù)3) 參數(shù)1:UDF名稱,可用于SQL風(fēng)格 參數(shù)2:被注冊(cè)成UDF的方法名 參數(shù)3:聲明UDF的返回值類型 udf對(duì)象: 返回值對(duì)象,是一個(gè)UDF對(duì)象,可用于DSL風(fēng)格 方式2語(yǔ)法: udf對(duì)象 = F.udf(參數(shù)1, 參數(shù)2) 參數(shù)

    2024年02月11日
    瀏覽(20)
  • Spark編程實(shí)驗(yàn)三:Spark SQL編程

    Spark編程實(shí)驗(yàn)三:Spark SQL編程

    目錄 一、目的與要求 二、實(shí)驗(yàn)內(nèi)容 三、實(shí)驗(yàn)步驟 1、Spark SQL基本操作 2、編程實(shí)現(xiàn)將RDD轉(zhuǎn)換為DataFrame 3、編程實(shí)現(xiàn)利用DataFrame讀寫MySQL的數(shù)據(jù) 四、結(jié)果分析與實(shí)驗(yàn)體會(huì) 1、通過(guò)實(shí)驗(yàn)掌握Spark SQL的基本編程方法; 2、熟悉RDD到DataFrame的轉(zhuǎn)化方法; 3、熟悉利用Spark SQL管理來(lái)自不同

    2024年02月03日
    瀏覽(19)
  • 大數(shù)據(jù)技術(shù)之Spark——Spark SQL

    大數(shù)據(jù)技術(shù)之Spark——Spark SQL

    ? ? ? ? Spark SQL是Spark用于結(jié)構(gòu)化數(shù)據(jù)處理的Spark模塊。 ????????我們之前學(xué)習(xí)過(guò)hive,hive是一個(gè)基于hadoop的SQL引擎工具,目的是為了簡(jiǎn)化mapreduce的開(kāi)發(fā)。由于mapreduce開(kāi)發(fā)效率不高,且學(xué)習(xí)較為困難,為了提高mapreduce的開(kāi)發(fā)效率,出現(xiàn)了hive,用SQL的方式來(lái)簡(jiǎn)化mapreduce:hiv

    2024年02月12日
    瀏覽(20)
  • Spark的生態(tài)系統(tǒng)概覽:Spark SQL、Spark Streaming

    Spark的生態(tài)系統(tǒng)概覽:Spark SQL、Spark Streaming

    Apache Spark是一個(gè)強(qiáng)大的分布式計(jì)算框架,用于大規(guī)模數(shù)據(jù)處理。Spark的生態(tài)系統(tǒng)包括多個(gè)組件,其中兩個(gè)重要的組件是Spark SQL和Spark Streaming。本文將深入探討這兩個(gè)組件,了解它們的功能、用途以及如何在Spark生態(tài)系統(tǒng)中使用它們。 Spark SQL是Spark生態(tài)系統(tǒng)中的一個(gè)核心組件,它

    2024年02月01日
    瀏覽(54)
  • 【Spark】Spark SQL基礎(chǔ)使用詳解和案例

    Spark SQL是Apache Spark的一個(gè)模塊,它提供了一種基于結(jié)構(gòu)化數(shù)據(jù)的編程接口。 Spark SQL支持結(jié)構(gòu)化數(shù)據(jù)的處理,包括數(shù)據(jù)的讀取、轉(zhuǎn)換和查詢。它可以將傳統(tǒng)的基于表和SQL的操作和Spark的分布式計(jì)算相結(jié)合,提供強(qiáng)大的數(shù)據(jù)處理和分析能力。 Spark SQL也可以與其他Spark組件集成,如

    2024年02月15日
    瀏覽(19)
  • DataGrip編寫SQL語(yǔ)句操作Spark(Spark ThriftServer)

    DataGrip編寫SQL語(yǔ)句操作Spark(Spark ThriftServer)

    Spark ThriftServer 相當(dāng)于一個(gè)持續(xù)性的Spark on Hive集成模式,可以啟動(dòng)并監(jiān)聽(tīng)在10000端口,持續(xù)對(duì)外提供服務(wù),可以使用數(shù)據(jù)庫(kù)客戶端工具或代碼連接上來(lái),操作Spark bin/spark-sql 腳本,類似于Hive的 bin/hive腳本 ( 內(nèi)部?jī)?nèi)置了hive的hiveServer2服務(wù)或Spark執(zhí)行引擎,每次腳本執(zhí)行,都會(huì)啟動(dòng)

    2024年02月12日
    瀏覽(20)
  • Hudi-集成Spark之spark-sql方式

    啟動(dòng)spark-sql 創(chuàng)建表 建表參數(shù): 參數(shù)名 默認(rèn)值 說(shuō)明 primaryKey uuid 表的主鍵名,多個(gè)字段用逗號(hào)分隔。同 hoodie.datasource.write.recordkey.field preCombineField 表的預(yù)合并字段。同 hoodie.datasource.write.precombine.field type cow 創(chuàng)建的表類型: type = ‘cow’ type = \\\'mor’同 hoodie.datasource.write.table.ty

    2024年02月05日
    瀏覽(23)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包