国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

[Flink] Flink Job運(yùn)行狀態(tài)正常,但日志中偶報“FlinkException: The file LOG does not exist on the TaskExecutor.”

這篇具有很好參考價值的文章主要介紹了[Flink] Flink Job運(yùn)行狀態(tài)正常,但日志中偶報“FlinkException: The file LOG does not exist on the TaskExecutor.”。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

0 序言

  • Flink : 1.12
job start running time : 2022-12-27 17:40:47
problem throw time : 2023-05-11 16:41:29,394
flink cdc : mysql --> redis

在此之前,本flink cdc job運(yùn)行一切正常(功能正常、日志正常)

1 問題描述

2023-05-11 16:41:29,394 ERROR org.apache.flink.runtime.rest.handler.taskmanager.TaskManagerLogFileHandler [] - Failed to transfer file from TaskExecutor flink-231840-taskmanager-1-1-7a7b81ea-1cec-4fc6-88b3-e0983c42b824.
java.util.concurrent.CompletionException: org.apache.flink.util.FlinkException: The file LOG does not exist on the TaskExecutor.
	at org.apache.flink.runtime.taskexecutor.TaskExecutor.lambda$requestFileUploadByFilePath$25(TaskExecutor.java:2031) ~[flink-dist_2.11-1.12.2-h0.cbu.dli.233.r4.jar:1.12.2-h0.cbu.dli.233.r4]
	at java.util.concurrent.CompletableFuture$AsyncSupply.run(CompletableFuture.java:1604) ~[?:1.8.0_322]
	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) ~[?:1.8.0_322]
	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) ~[?:1.8.0_322]
	at java.lang.Thread.run(Thread.java:750) ~[?:1.8.0_322]
Caused by: org.apache.flink.util.FlinkException: The file LOG does not exist on the TaskExecutor.
	... 5 more
2023-05-11 16:41:29,395 ERROR org.apache.flink.runtime.rest.handler.taskmanager.TaskManagerLogFileHandler [] - Unhandled exception.
org.apache.flink.util.FlinkException: The file LOG does not exist on the TaskExecutor.
	at org.apache.flink.runtime.taskexecutor.TaskExecutor.lambda$requestFileUploadByFilePath$25(TaskExecutor.java:2031) ~[flink-dist_2.11-1.12.2-h0.cbu.dli.233.r4.jar:1.12.2-h0.cbu.dli.233.r4]
	at java.util.concurrent.CompletableFuture$AsyncSupply.run(CompletableFuture.java:1604) ~[?:1.8.0_322]
	at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) ~[?:1.8.0_322]
	at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) ~[?:1.8.0_322]
	at java.lang.Thread.run(Thread.java:750) ~[?:1.8.0_322]
2023-05-11 16:41:39,026 INFO  org.apache.flink.runtime.checkpoint.CheckpointCoordinator    [] - Triggering checkpoint 192727 (type=CHECKPOINT) @ 1683794498517 for job e091d022d9992d5c17eac075507ff1a2.

2 原因分析

該報錯主要是找不到STDOUT文件,原因是程序中沒有sout輸出,當(dāng)你去web-ui點(diǎn)擊stdout目錄,就會報一個這兒樣的接口請求錯誤,并不影響程序運(yùn)行,可忽略。

3 解決方法

  • 方式1:不影響程序正常運(yùn)行,忽略此ERROR即可

目前博主的做法 (經(jīng)驗證,確實(shí)不影響程序功能正常運(yùn)行)

  • 方式2:修改Flink源碼 (未驗證)
如果一定要修復(fù),提供以下方案:
  1. 修復(fù)flink runtime源碼
  2. 如果沒有sout輸出,不要隨便點(diǎn)擊查看 stdout 目錄
  3. 隨便加一點(diǎn)sout輸出在程序里
  • 方式3 修改日志參數(shù)配置(未驗證)

網(wǎng)友:發(fā)現(xiàn)flink客戶端提交的任務(wù),jobManager中多了兩個日志相關(guān)參數(shù)

[Flink] Flink Job運(yùn)行狀態(tài)正常,但日志中偶報“FlinkException: The file LOG does not exist on the TaskExecutor.”

  • $internal.deployment.config-dir
  • $internal.yarn.log-config-file
    網(wǎng)友測驗:手動在程序中參考 YarnLogConfigUtil.discoverLogConfigFile方法設(shè)置 $internal.yarn.log-config-file 參數(shù),最終日志成功出現(xiàn)!

[Flink] Flink Job運(yùn)行狀態(tài)正常,但日志中偶報“FlinkException: The file LOG does not exist on the TaskExecutor.”文章來源地址http://www.zghlxwxcb.cn/news/detail-438960.html

X 參考文獻(xiàn)

  • flink1.13報錯:The file STDOUT does not exist on the TaskExecutor - CSDN 【推薦】
  • The file LOG/STDOUT is not available on the TaskExecutor - CSDN 【推薦】
  • 【Flink】FlinkException The file LOG does not exist on the TaskExecutor - CSDN 【推薦/需付費(fèi)】
  • 大佬們,遇到過這個錯嗎?org.apache.flink.util.FlinkException: - Aliyun

到了這里,關(guān)于[Flink] Flink Job運(yùn)行狀態(tài)正常,但日志中偶報“FlinkException: The file LOG does not exist on the TaskExecutor.”的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 刀具磨損狀態(tài)識別(Python代碼,MSCNN_LSTM_Attention模型,初期磨損、正常磨損和急劇磨損分類,解壓縮直接運(yùn)行)

    刀具磨損狀態(tài)識別(Python代碼,MSCNN_LSTM_Attention模型,初期磨損、正常磨損和急劇磨損分類,解壓縮直接運(yùn)行)

    環(huán)境庫: NumPy 版本: 1.19.4 Pandas 版本: 0.23.4 Matplotlib 版本: 2.2.3 Keras 版本: 2.4.0 TensorFlow 版本: 2.4.0 sklearn ?版本: 0.19.2 如果庫版本不一樣, 一般也可以運(yùn)行,這里展示我運(yùn)行時候的庫版本,是為了防止你萬一在你的電腦上面運(yùn)行不了,可以按照我的庫版本進(jìn)行安裝并運(yùn)行? 試驗

    2024年02月06日
    瀏覽(19)
  • Flink stop 和 cancel停止 job 的區(qū)別 Flink 停止 job 的方式(stop 和 cancel)

    后邊跟的任務(wù)id 是flink的任務(wù)ID,不是yarn的 注:stop方式停止任務(wù)對 source 有要求,source必須實(shí)現(xiàn)了StopableFunction接口,才可以優(yōu)雅的停止job 取消任務(wù)。如果在 conf/flink-conf.yaml 里面配置了 state.savepoints.dir ,會保存savepoint, 否則不會保存 savepoint。 使用 命令方式 也可以在停止的

    2024年02月12日
    瀏覽(21)
  • Flink Job 執(zhí)行流程

    Flink Job 執(zhí)行流程

    ? 基于 Yarn 層面的架構(gòu)類似 Spark on Yarn 模式 ,都是由 Client 提交 App 到 RM 上面去運(yùn)行,然后 RM 分配第一個 container 去運(yùn)行 AM ,然后由 AM 去負(fù)責(zé)資源的監(jiān)督和管理 。需要說明的是, Flink 的 Yarn 模式更加類似 Spark on Yarn 的 cluster 模式,在 cluster 模式中, dirver 將作為 AM 中的一

    2024年02月04日
    瀏覽(24)
  • 深入理解 Flink(六)Flink Job 提交和 Flink Graph 詳解

    深入理解 Flink(六)Flink Job 提交和 Flink Graph 詳解

    深入理解 Flink 系列文章已完結(jié),總共八篇文章,直達(dá)鏈接: 深入理解 Flink (一)Flink 架構(gòu)設(shè)計原理 深入理解 Flink (二)Flink StateBackend 和 Checkpoint 容錯深入分析 深入理解 Flink (三)Flink 內(nèi)核基礎(chǔ)設(shè)施源碼級原理詳解 深入理解 Flink (四)Flink Time+WaterMark+Window 深入分析 深入

    2024年01月16日
    瀏覽(28)
  • Logback日志輸入到xxl-job日志中

    前言 ? 在xxl-job的任務(wù)中,如果需要把日志輸入到xxl-job的日志文件里,需要使用XxlJobHelper.log來記錄日志,這種方式才能在任務(wù)執(zhí)行詳情里面看到對應(yīng)的日志。而有時候 習(xí)慣用@Slf4j來記錄日志,而通過slf4j打印的日志沒辦法在xxl-job管理后臺看到對應(yīng)的日志。所以需要一種方式

    2024年02月15日
    瀏覽(12)
  • XXL-JOB 日志表和日志文件自動清理

    ?? 作者主頁: 有來技術(shù) ?? 開源項目: youlai-mall ?? vue3-element-admin ?? youlai-boot ?? 倉庫主頁: Gitee ?? Github ?? GitCode ?? 歡迎點(diǎn)贊 ?? 收藏 ?留言 ?? 如有錯誤敬請糾正! 參考官方文檔:XXL-JOB 日志自動清理 XXL-JOB日志主要包含如下兩部分,均支持日志自動清理,說明如

    2024年02月04日
    瀏覽(16)
  • Flink CDC實(shí)現(xiàn)一個Job同步多個表

    直接使用Flink CDC SQL的寫法,一個Job只能同步一個表的數(shù)據(jù),至于原因,在此不再贅述。 直接上代碼吧 將SourceRecord類轉(zhuǎn)化為自定義的JsonRecord類型 JsonRecord類定義如下: 其中fieldValue為字段map序列化后的字符串 第三步,編寫main函數(shù) 通過OutputTag實(shí)現(xiàn)分流

    2024年02月12日
    瀏覽(22)
  • Flink stop 和 cancel停止 job 的區(qū)別

    后邊跟的任務(wù)id 是flink的任務(wù)ID,不是yarn的 注:stop方式停止任務(wù)對 source 有要求,source必須實(shí)現(xiàn)了StopableFunction接口,才可以優(yōu)雅的停止job 取消任務(wù)。如果在 conf/flink-conf.yaml 里面配置了 state.savepoints.dir ,會保存savepoint, 否則不會保存 savepoint。 使用 命令方式 也可以在停止的

    2024年02月07日
    瀏覽(12)
  • 【Flink系列二】如何計算Job并行度及slots數(shù)量

    【Flink系列二】如何計算Job并行度及slots數(shù)量

    接上文的問題 并行的任務(wù),需要占用多少slot ? 一個流處理程序,需要包含多少個任務(wù) 首先明確一下概念 slot:TM上分配資源的最小單元,它代表的是資源(比如1G內(nèi)存,而非線程的概念,好多人把slot類比成線程,是不恰當(dāng)?shù)模?任務(wù)(task):線程調(diào)度的最小單元,和java中的

    2024年01月18日
    瀏覽(21)
  • Pod無法正常啟動,出現(xiàn)CrashLoopBackOff狀態(tài)

    Pod無法正常啟動,出現(xiàn)CrashLoopBackOff狀態(tài)。這個狀態(tài)表示Kubernetes已經(jīng)嘗試了多次重新啟動Pod,但是每次都失敗了。 這種情況的原因有很多,以下是一些常見的原因以及相應(yīng)的解決方法: 容器鏡像拉取失?。嚎赡苁怯捎诰W(wǎng)絡(luò)問題導(dǎo)致容器鏡像無法下載。可以嘗試使用 kubectl de

    2024年02月11日
    瀏覽(36)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包