国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Empowering Low-Light Image Enhancer through Customized Learnable Priors 論文閱讀筆記

這篇具有很好參考價(jià)值的文章主要介紹了Empowering Low-Light Image Enhancer through Customized Learnable Priors 論文閱讀筆記。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記文章來源地址http://www.zghlxwxcb.cn/news/detail-787953.html

  • 中科大、西安交大、南開大學(xué)發(fā)表在ICCV2023的論文,作者里有李重儀老師和中科大的Jie Huang(ECCV2022的FEC CVPR2022的ENC和CVPR2023的ERL的一作)喔,看來可能是和Jie Huang同一個(gè)課題組的,而且同樣代碼是開源的,我很喜歡。
  • 文章利用了MAE的encoder來做一些事情,提出了一個(gè)叫customized unfolding enhancer (CUE)的方法。從MAE中學(xué)了illumination prior 和noise prior兩個(gè)先驗(yàn),用到了retinex模型中。流程如下圖所示:
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
  • 文章用的是如下的常規(guī)retinex公式:
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
  • 目標(biāo)是最小化如下表達(dá)式:
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
  • 把限制項(xiàng)(2b)放到優(yōu)化式中(拉格朗日),得到如下表達(dá)式:
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
  • 用循環(huán)的方式來優(yōu)化這個(gè)目標(biāo)函數(shù),其中L的優(yōu)化目標(biāo)如下:
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
  • 用近端梯度下降法從 L k L_k Lk?推導(dǎo)出 L k + 1 L_{k+1} Lk+1?
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
  • 其中 p r o x β ρ 2 prox_{\beta\rho_2} proxβρ2??是對(duì)先驗(yàn)約束 β ρ 2 \beta\rho_2 βρ2?的近端梯度下降算子,一般用一個(gè)網(wǎng)絡(luò)來擬合。本文用的是如下網(wǎng)絡(luò)。所以說利用MAE,其實(shí)就是利用MAE的方法來訓(xùn)練一個(gè)encoder來提取特征。文章用cnn做一個(gè)encoder decoder的網(wǎng)絡(luò),然后將輸入圖像用隨機(jī)gamma校正進(jìn)行數(shù)據(jù)增強(qiáng)后用三通道的max提取illumination maps后切分為不重疊的patch,隨機(jī)mask掉一些patch,訓(xùn)練一個(gè)對(duì)illumination的inpainting模型,丟掉decoder,剩下的encoder用來放到下圖的網(wǎng)絡(luò)結(jié)構(gòu)中。其實(shí)這樣搞已經(jīng)和MAE沒多大關(guān)系了,沒有注意力的MAE就是個(gè)普通的inpainting模型,所以這里其實(shí)只是用illumination inpainting任務(wù)預(yù)訓(xùn)練了一個(gè)encoder而已:
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
  • R模塊用的是類似的公式,只是網(wǎng)絡(luò)就簡(jiǎn)單的得多,兩層卷積加一層relu:
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
  • N模塊也是兩層卷積加一層relu:
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
  • 后面就是對(duì)估計(jì)出來的L進(jìn)行增強(qiáng),和KinD一樣,訓(xùn)練的時(shí)候先用GT的L的均值除以暗圖的L的均值得出一個(gè) ε \varepsilon εconcatenate到L中(測(cè)試則直接指定一個(gè)預(yù)設(shè)值),進(jìn)一個(gè)unet預(yù)測(cè)增亮后的L,同時(shí)也要把L R N都送進(jìn)另一個(gè)unet預(yù)測(cè)修復(fù)后的R。修復(fù)后的R和增強(qiáng)后的L相乘得到增強(qiáng)結(jié)果I。
  • 損失函數(shù)分為三部分,一部分是前面的retinex 分解的損失,一部分是增強(qiáng)修復(fù)網(wǎng)絡(luò)的損失,還有一部分就是文章第二處用到MAE的noise prior損失。
  • retinex分解損失有三個(gè)都是常見的,如暗圖和亮圖的R的距離,以及L的平滑損失,還有R和L相乘等于原圖的重建損失。但有一個(gè)mutual consistency 損失好像不怎么見到,說是可以在亮度層中保留比較強(qiáng)的邊緣而消除比較弱的邊緣
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
  • 增強(qiáng)損失如下,也是比較常見:
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
  • 第三部分的損失有點(diǎn)像perceptual loss,就是用一個(gè)MAE的encoder去求增強(qiáng)結(jié)果和GT的特征算距離,其中MAE的訓(xùn)練也是自己設(shè)計(jì)的,如下:
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
    empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
  • 實(shí)驗(yàn)結(jié)果如下,也就一般,而且你一個(gè)有監(jiān)督方法和一堆無監(jiān)督方法比PSNR就不太正常了吧 :empowering low-light image enhancer through customized learnable priors,論文閱讀筆記,論文閱讀,筆記
  • 評(píng)價(jià):看起來給人的感覺就是一篇?jiǎng)訖C(jī)僅僅是為了和MAE結(jié)合做一個(gè)暗圖增強(qiáng)的工作發(fā)一篇論文。個(gè)人觀點(diǎn)是,做研究應(yīng)該是發(fā)現(xiàn)問題解決問題,這篇文章看起來就像是蹭熱度發(fā)論文。感覺就是大老板一拍腦袋說,最近MAE挺火,xxx你去結(jié)合MAE做一個(gè)暗圖增強(qiáng)模型來。然后xxx kuakua一頓搞勉強(qiáng)拼出來一個(gè)模型,實(shí)驗(yàn)結(jié)果也不是很好,就找一堆無監(jiān)督方法比一比,發(fā)了篇論文出來。感覺MAE的部分用得就很不自然,和一堆無監(jiān)督方法比PSNR更是奇怪。唉,怎么ICCV這么多這樣的論文。

到了這里,關(guān)于Empowering Low-Light Image Enhancer through Customized Learnable Priors 論文閱讀筆記的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • ExposureDiffusion: Learning to Expose for Low-light Image Enhancement論文閱讀筆記

    ExposureDiffusion: Learning to Expose for Low-light Image Enhancement論文閱讀筆記

    南洋理工大學(xué)、鵬城實(shí)驗(yàn)室、香港理工大學(xué)在ICCV2023發(fā)表的暗圖增強(qiáng)論文。用diffusion模型來進(jìn)行raw圖像暗圖增強(qiáng),同時(shí)提出了一個(gè)自適應(yīng)的殘差層用來對(duì)具有不同信噪比的不同區(qū)域采取不同的去噪策略。 方法的框圖如下所示: 一張raw圖片可以由信號(hào)和噪聲組成,其中信號(hào)是曝

    2024年02月07日
    瀏覽(26)
  • 低照度增強(qiáng)--論文閱讀【《Toward Fast, Flexible, and Robust Low-Light Image Enhancement》】

    低照度增強(qiáng)--論文閱讀【《Toward Fast, Flexible, and Robust Low-Light Image Enhancement》】

    介紹一篇最近看的低照度增強(qiáng)方面的論文——自校準(zhǔn)照明,文中所給的方法取得了非常不錯(cuò)的效果,值得我們?nèi)W(xué)習(xí)和思考。 論文名稱 :Toward Fast, Flexible, and Robust Low-Light Image Enhancement(實(shí)現(xiàn)快速、靈活和穩(wěn)健的低光照?qǐng)D像增強(qiáng)) 論文信息 :由大連理工大學(xué)2022年4月發(fā)表在

    2024年02月06日
    瀏覽(21)
  • Progressive Dual-Branch Network for Low-Light Image Enhancement 論文閱讀筆記

    Progressive Dual-Branch Network for Low-Light Image Enhancement 論文閱讀筆記

    這是22年中科院2區(qū)期刊的一篇有監(jiān)督暗圖增強(qiáng)的論文 網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示: ARM模塊如下圖所示: CAB模塊如下圖所示: LKA模塊其實(shí)就是放進(jìn)去了一些大卷積核: AFB模塊如下圖所示: 這些網(wǎng)絡(luò)結(jié)構(gòu)沒什么特別的,連來連去搞那么復(fù)雜沒什么意思,最終預(yù)測(cè)的結(jié)果是兩個(gè)支路的

    2024年02月16日
    瀏覽(24)
  • Low-Light Image Enhancement via Stage-Transformer-Guided Network 論文閱讀筆記

    Low-Light Image Enhancement via Stage-Transformer-Guided Network 論文閱讀筆記

    這是TCSVT 2023年的一篇暗圖增強(qiáng)的論文 文章的核心思想是,暗圖有多種降質(zhì)因素,單一stage的model難以實(shí)現(xiàn)多降質(zhì)因素的去除,因此需要一個(gè)multi-stage的model,文章中設(shè)置了4個(gè)stage。同時(shí)提出了用預(yù)設(shè)query向量來代表不同的降質(zhì)因素,對(duì)原圖提取的key 和value進(jìn)行注意力的方法。

    2024年02月16日
    瀏覽(29)
  • Low-Light Image Enhancement via Self-Reinforced Retinex Projection Model 論文閱讀筆記

    Low-Light Image Enhancement via Self-Reinforced Retinex Projection Model 論文閱讀筆記

    這是馬龍博士2022年在TMM期刊發(fā)表的基于改進(jìn)的retinex方法去做暗圖增強(qiáng)(非深度學(xué)習(xí))的一篇論文 文章用一張圖展示了其動(dòng)機(jī),第一行是估計(jì)的亮度層,第二列是通常的retinex方法會(huì)對(duì)估計(jì)的亮度層進(jìn)行RTV約束優(yōu)化,從而產(chǎn)生平滑的亮度層,然后原圖除以亮度層產(chǎn)生照度層作為

    2024年02月16日
    瀏覽(38)
  • 論文閱讀——《Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement》

    論文閱讀——《Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement》

    本文試圖從原理和代碼簡(jiǎn)單介紹低照度增強(qiáng)領(lǐng)域中比較新的一篇論文——Retinexformer,其效果不錯(cuò),刷新了十三大暗光增強(qiáng)效果榜單。 ? 論文名稱 :Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement ?? 論文信息 :由清華大學(xué)聯(lián)合維爾茲堡大學(xué)和蘇黎世聯(lián)邦理工

    2024年01月18日
    瀏覽(29)
  • 論文詳讀:Beyond Brightening Low-light Images (Kind++)

    文章地址:Beyond Brightening Low-light Images (tju.edu.cn) github:GitHub - zhangyhuaee/KinD_plus: Beyond Brightening Low-light Images 目錄 一、簡(jiǎn)介 二、方法 網(wǎng)絡(luò)整體結(jié)構(gòu): 分解網(wǎng)絡(luò) 網(wǎng)絡(luò)結(jié)構(gòu) 損失函數(shù): 總損失 反射網(wǎng)絡(luò) 網(wǎng)絡(luò)結(jié)構(gòu) 損失函數(shù) 反射圖的調(diào)整 光照網(wǎng)絡(luò) 網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù) 與伽馬變化

    2024年02月04日
    瀏覽(18)
  • C# OpenCvSharp DNN Low Light image Enhancement

    C# OpenCvSharp DNN Low Light image Enhancement

    目錄 介紹 效果 模型信息 項(xiàng)目 代碼 下載 C# OpenCvSharp DNN Low Light image Enhancement github地址:https://github.com/zhenqifu/PairLIE ?? ?Model Properties ------------------------- --------------------------------------------------------------- Inputs ------------------------- name:input tensor:Float[1, 3, 512, 512] name:exposure

    2024年02月21日
    瀏覽(21)
  • Empowering Long-tail Item Recommendation through Cross Decoupling Network (CDN)

    Empowering Long-tail Item Recommendation through Cross Decoupling Network (CDN)

    來源: KDD\\\'2023 Google Research 目錄 Empowering Long-tail Item Recommendation through Cross Decoupling Network (CDN) 長(zhǎng)尾問題分析 CDN Item Memorization and Generalization Decoupling 記憶特征(Memorization features) 泛化特征(Generalization features) 物品表征學(xué)習(xí) User Sample Decoupling Cross Learning 總結(jié) 參考 長(zhǎng)尾問題是個(gè)

    2024年02月10日
    瀏覽(20)
  • Lora升級(jí)!ReLoRa!最新論文 High-Rank Training Through Low-Rank Updates

    Lora升級(jí)!ReLoRa!最新論文 High-Rank Training Through Low-Rank Updates

    關(guān)注公眾號(hào)TechLead,分享AI與云服務(wù)技術(shù)的全維度知識(shí)。作者擁有10+年互聯(lián)網(wǎng)服務(wù)架構(gòu)、AI產(chǎn)品研發(fā)經(jīng)驗(yàn)、團(tuán)隊(duì)管理經(jīng)驗(yàn),同濟(jì)本復(fù)旦碩,復(fù)旦機(jī)器人智能實(shí)驗(yàn)室成員,阿里云認(rèn)證的資深架構(gòu)師,項(xiàng)目管理專業(yè)人士,上億營(yíng)收AI產(chǎn)品研發(fā)負(fù)責(zé)人。 盡管通過擴(kuò)展導(dǎo)致具有數(shù)千億參

    2024年02月10日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包