国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP

這篇具有很好參考價值的文章主要介紹了【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

【論文介紹】

EnlightenGan是第一個成功地將非配對訓(xùn)練引入微光圖像增強(qiáng)的工作。?

【題目】:EnlightenGAN: Deep Light Enhancement Without Paired Supervision

【DOI】:10.1109/TIP.2021.3051462

【時間】:2019-06-17上傳于arxiv
【會議】:2019 IEEE Transactions on Image Processing(TIP)
【機(jī)構(gòu)】:美國-得克薩斯大學(xué)(University of Texas System)

【論文鏈接】:https://arxiv.org/abs/1906.06972
【代碼鏈接】:https://github.com/VITA-Group/EnlightenGAN

【提出問題】

基于深度學(xué)習(xí)的方法在圖像恢復(fù)和增強(qiáng)方面取得了顯著的成功,但是在缺乏配對訓(xùn)練數(shù)據(jù)的情況下它們?nèi)匀痪哂懈偁幜幔?

【解決方案】

使用從輸入本身提取的信息來規(guī)范非配對訓(xùn)練,而不是使用ground truth數(shù)據(jù)監(jiān)督學(xué)習(xí),提出了一個高效的無監(jiān)督生成對抗網(wǎng)絡(luò),稱為 EnlightenGAN,可以在沒有低光/正常光圖像對的情況下進(jìn)行訓(xùn)練,可用于增強(qiáng)來自不同領(lǐng)域的真實世界低光圖像。

【創(chuàng)新點】

  1. 無監(jiān)督:EnlightenGan是第一個成功地將非配對訓(xùn)練引入微光圖像增強(qiáng)的工作。
  2. 全局-局部鑒別器:除了全局改善光照之外,自適應(yīng)地增強(qiáng)局部區(qū)域。
  3. 自正則化的思想:由自特征保持損失和自正則化注意力機(jī)制共同實現(xiàn)。

【EnlightenGAN網(wǎng)絡(luò)構(gòu)架】

  1. 采用自調(diào)整注意力引導(dǎo)的 U-Net 作為生成器。
  2. 使用雙判別器來引導(dǎo)全局和局部信息。
  3. 使用自特征保留損失來指導(dǎo)訓(xùn)練過程并保持紋理和結(jié)構(gòu)。
  4. 利用低光輸入的照度信息作為深度特征每一層的自規(guī)則化注意圖來規(guī)范無監(jiān)督學(xué)習(xí)。

【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP

1、自調(diào)整注意力引導(dǎo)的U-Net生成器?

  1. 取輸入RGB圖像的照明通道 I,將其歸一化為[0,1],然后使用1-I(元素差異)作為自正則化 attention map。
  2. 然后,resize attention map 的大小以適應(yīng)每個 feature map,并將其與所有中間 feature map 以及輸出圖像相乘。
  3. 每個卷積塊有兩個3×3卷積層,然后是 BN 和 Leakyrelu。
  4. 在上采樣階段,用一個雙線性上采樣層和一個卷積層代替標(biāo)準(zhǔn)的反卷積層,以減輕偽影。

【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP

U-Net通過提取不同深度層的多層次特征,保留了豐富的紋理信息,并利用多尺度上下文信息合成高質(zhì)量的圖像。

【論文筆記】—圖像分割—U-Net—2015-MICCAI_chaikeya的博客-CSDN博客

2、全局-局部判別器

【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP

動機(jī):采用對抗性損失來最小化真實和輸出正常光分布之間的距離。

問題:圖像級普通鑒別器在空間變化的光圖像上經(jīng)常失敗。如果輸入圖像有一些局部區(qū)域需要與其他部分不同地增強(qiáng),例如,整體黑暗背景中的小亮區(qū)域,單獨的全局圖像鑒別器通常無法提供所需的自適應(yīng)性。

解決方案:受先前工作 [37] 的啟發(fā),除了全局改善光照之外,為了自適應(yīng)地增強(qiáng)局部區(qū)域,提出了一種新穎的全局-局部鑒別器結(jié)構(gòu),兩者都使用 PatchGAN 進(jìn)行真假鑒別。

局部判別器:從輸出和真實正常光圖像中隨機(jī)裁剪局部塊,并學(xué)習(xí)區(qū)分它們是真實的(來自真實圖像)還是假的(來自增強(qiáng)的輸出)

全局鑒別器:利用最近提出的相對論鑒別器結(jié)構(gòu)[38],它估計真實數(shù)據(jù)比假數(shù)據(jù)更真實的概率,并指導(dǎo)生成器合成比真實圖像更真實的假圖像。 相對論判別器的標(biāo)準(zhǔn)函數(shù)是:

【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP

【損失函數(shù)】?

1、對抗損失?

采用對抗性損失來最小化真實和輸出正常光分布之間的距離。?

其中D表示鑒別器的網(wǎng)絡(luò),xr和xf分別從真假分布中采樣,σ 表示sigmoid函數(shù)。我們稍微修改相對論鑒別器,用最小二乘GAN (LSGAN) [39] 損失代替sigmoid函數(shù)。最后,全局鑒別器D和生成器G的損失函數(shù)為:

【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP

?對于局部鑒別器,每次從輸出和真實圖像中隨機(jī)裁剪 5 個patch。 這里采用原始的 LSGAN 作為對抗性損失,如下:

【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP

2、自特征保留損失

自規(guī)范化對我們的模型成功至關(guān)重要,因為沒有強(qiáng)大的外部監(jiān)督形式可用的非配對設(shè)置。

感知損失:

為了限制感知相似性,Johnson等人[40]通過采用預(yù)先訓(xùn)練的VGG來建模圖像之間的特征空間距離,提出了感知損失,這被廣泛應(yīng)用于許多低級視覺任務(wù)[28],[41]。通常的做法是限制輸出圖像其真實圖像之間的提取特征距離。?

在未配對設(shè)置中限制輸入低光其增強(qiáng)的正常光輸出之間的 VGG 特征距離。并稱其為自特征保留損失,以強(qiáng)調(diào)其自正則化效用,在增強(qiáng)前后將圖像內(nèi)容特征保留給自身,自特征保持損失 LSFP 定義為:

【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP

其中 I^L 表示輸入低光圖像,G(I^L) 表示生成器的增強(qiáng)輸出。φi,j 表示從在 ImageNet 上預(yù)訓(xùn)練的 VGG-16 模型中提取的特征圖。i 代表它的第 i 個最大池化,j 代表它在第 i 個最大池化層之后的第 j 個卷積層。Wi,j 和 Hi,j 是提取的特征圖的維度。 默認(rèn)情況下,i = 5,j = 1。?

3、總損失?

對于局部鑒別器,來自輸入和輸出圖像的裁剪的局部塊也通過類似定義的自特征保持損失Llocal SFP來正則化。此外,在輸入LSFP和LLocal SFP之前,在VGG特征圖之后添加了一個實例歸一化層[43],以穩(wěn)定訓(xùn)練。因此,訓(xùn)練啟發(fā)的總損失函數(shù)寫為:?

【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP

【數(shù)據(jù)集】

訓(xùn)練集:從 [47], [5] and also HDR sources [15], [25], 中發(fā)布的幾個數(shù)據(jù)集中組裝了 914 個低光和 1016 個正常光圖像的混合圖像,無需保留任何一對。手動檢查和選擇執(zhí)行以去除中等亮度的圖像。所有這些照片都轉(zhuǎn)換為 PNG 格式并調(diào)整為 600×400 像素。

[47] Raise數(shù)據(jù)集 paper?,[5] LOL數(shù)據(jù)集 paper,[15]?HDR sources?paper,[25] SICE數(shù)據(jù)集 paper

低照度圖像數(shù)據(jù)集_chaikeya的博客-CSDN博客

測試集:選擇以前工作中使用的那些標(biāo)準(zhǔn)圖像(NPE [19], LIME [21], MEF [48], DICM [49], VV, 2 etc.)。

【實驗結(jié)果】

1、定量分析

表1:在整個測試集(All)和每個子集(MEF、LIME、NPE、VV、DICM)上的 NIQE 得分。 較小的 NIQE 表示較高的整體自然度。?

【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP

2、定性分析?

圖1:EnlightenGAN增強(qiáng)效果:從左到右:列1、3和5是低光輸入圖像;而第2、4、6列及其相應(yīng)的增強(qiáng)圖像。?

【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP

圖3:消融實驗?

【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP

圖4:與其他先進(jìn)方法比較

【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP文章來源地址http://www.zghlxwxcb.cn/news/detail-468358.html

到了這里,關(guān)于【論文筆記】—低照度圖像增強(qiáng)—Unsupervised—EnlightenGAN—2019-TIP的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 低照度增強(qiáng)--論文閱讀【《Toward Fast, Flexible, and Robust Low-Light Image Enhancement》】

    低照度增強(qiáng)--論文閱讀【《Toward Fast, Flexible, and Robust Low-Light Image Enhancement》】

    介紹一篇最近看的低照度增強(qiáng)方面的論文——自校準(zhǔn)照明,文中所給的方法取得了非常不錯的效果,值得我們?nèi)W(xué)習(xí)和思考。 論文名稱 :Toward Fast, Flexible, and Robust Low-Light Image Enhancement(實現(xiàn)快速、靈活和穩(wěn)健的低光照圖像增強(qiáng)) 論文信息 :由大連理工大學(xué)2022年4月發(fā)表在

    2024年02月06日
    瀏覽(21)
  • YOLOv8改進(jìn) | 主干篇 | 輕量級的低照度圖像增強(qiáng)網(wǎng)絡(luò)IAT改進(jìn)YOLOv8暗光檢測(全網(wǎng)獨家首發(fā))

    YOLOv8改進(jìn) | 主干篇 | 輕量級的低照度圖像增強(qiáng)網(wǎng)絡(luò)IAT改進(jìn)YOLOv8暗光檢測(全網(wǎng)獨家首發(fā))

    本文給大家?guī)淼母倪M(jìn)機(jī)制是輕量級的變換器模型: Illumination Adaptive Transformer (IAT) ,用于圖像增強(qiáng)和曝光校正。其基本原理是通過 分解圖像信號處理器(ISP)管道到局部和全局圖像組件 ,從而 恢復(fù)在低光或過/欠曝光條件下的正常光照sRGB圖像 。具體來說,IAT使用注意力查

    2024年04月26日
    瀏覽(38)
  • 【論文筆記】Language Models are Unsupervised Multitask Learners

    【論文筆記】Language Models are Unsupervised Multitask Learners

    回顧一下第一代 GPT-1 : 設(shè)計思路是 “海量無標(biāo)記文本進(jìn)行無監(jiān)督預(yù)訓(xùn)練+少量有標(biāo)簽文本有監(jiān)督微調(diào)” 范式; 模型架構(gòu)是基于 Transformer 的疊加解碼器(掩碼自注意力機(jī)制、殘差、Layernorm); 下游各種具體任務(wù)的適應(yīng)是通過在模型架構(gòu)的輸出后增加線性權(quán)重 W y W_{y} W y ? 實

    2024年03月17日
    瀏覽(22)
  • 圖像融合論文閱讀:U2Fusion: A Unified Unsupervised Image Fusion Network

    圖像融合論文閱讀:U2Fusion: A Unified Unsupervised Image Fusion Network

    @ARTICLE{9151265, author={Xu, Han and Ma, Jiayi and Jiang, Junjun and Guo, Xiaojie and Ling, Haibin}, journal={IEEE Transactions on Pattern Analysis and Machine Intelligence}, title={U2Fusion: A Unified Unsupervised Image Fusion Network}, year={2022}, volume={44}, number={1}, pages={502-518}, doi={10.1109/TPAMI.2020.3012548}} SCI A1;IF 23.6 論文地址 代碼

    2024年01月17日
    瀏覽(35)
  • 【圖像拼接/視頻拼接】論文精讀:Eliminating Warping Shakes for Unsupervised Online Video Stitching(StabStitch)

    第一次來請先看這篇文章:【圖像拼接(Image Stitching)】關(guān)于【圖像拼接論文精讀】專欄的相關(guān)說明,包含專欄使用說明、創(chuàng)新思路分享等(不定期更新) Seam Carving for Content-Aware Image Resizing As-Rigid-As-Possible Shape Manipulation Adaptive As-Natural-As-Possible Image Stitching Shape-Preserving Half

    2024年03月24日
    瀏覽(22)
  • 低照度圖片增強(qiáng)——傳統(tǒng)算法

    低照度圖片增強(qiáng)——傳統(tǒng)算法

    光照因素一直是影響成像質(zhì)量的一個關(guān)鍵因素,夜間等光照環(huán)境較差的條件下的圖片往往細(xì)節(jié)丟失、分辨不清,信噪比低下。低照度圖像增強(qiáng)是指通過一系列算法和技術(shù),增強(qiáng)在低照度或弱光條件下拍攝的圖像的可視化質(zhì)量。本文主要介紹一些傳統(tǒng)的低照度圖像增強(qiáng)算法,給

    2024年02月08日
    瀏覽(18)
  • 【論文閱讀筆記】UNSUPERVISED REPRESENTATION LEARNING FOR TIME SERIES WITH TEMPORAL NEIGHBORHOOD CODING

    ?本文提出了一種自監(jiān)督框架,名為“時間鄰域編碼”(Temporal Neighborhood Coding,TNC),用于學(xué)習(xí)非平穩(wěn)時間序列的可泛化表示。該方法利用信號生成過程的局部平滑性來定義具有平穩(wěn)性質(zhì)的時間鄰域。通過使用去偏差對比目標(biāo),該框架通過確保在編碼空間中,來自鄰域內(nèi)的信

    2024年02月21日
    瀏覽(21)
  • 圖像色彩增強(qiáng)論文調(diào)研

    Deep Symmetric Network for Underexposed Image Enhancement with Recurrent Attentional Learning(ICCV2021) 使用對稱編碼器和解碼器學(xué)習(xí)圖像從低曝光轉(zhuǎn)化到正常圖片的映射方式,通過IFT(Invertible Feature Transformer)網(wǎng)絡(luò)和提出模塊RRAM學(xué)習(xí)到低曝光轉(zhuǎn)化到正常圖片映射關(guān)系; DPE-Deep Photo Enhancer Unpaired Le

    2024年02月11日
    瀏覽(14)
  • 【論文筆記】數(shù)據(jù)增強(qiáng)系列.1

    【論文筆記】數(shù)據(jù)增強(qiáng)系列.1

    本文介紹簡單數(shù)據(jù)增強(qiáng)、好處以及常見的增強(qiáng)方式,也介紹幾篇關(guān)于數(shù)據(jù)增強(qiáng)的工作: CutMix(ICCV2019),ContrastMask(CVPR2022),BCP(CVPR2023)。 什么是數(shù)據(jù)增強(qiáng)? 數(shù)據(jù)增強(qiáng)是深度學(xué)習(xí)中的一種技術(shù),它通過從現(xiàn)有數(shù)據(jù)生成新的訓(xùn)練數(shù)據(jù)來擴(kuò)展原數(shù)據(jù)集。數(shù)據(jù)增強(qiáng)工具通過操作

    2024年02月10日
    瀏覽(18)
  • 低照度圖像數(shù)據(jù)集

    低照度圖像數(shù)據(jù)集

    LSRW、? https://docs.activeloop.ai/datasets 【LOL】:paper,包含低光/正常光圖像的 配對 數(shù)據(jù)集? 包含 500 個低光/正常光圖像對。 原始圖像被調(diào)整為 400×600 并轉(zhuǎn)換為便攜式網(wǎng)絡(luò)圖形格式。 使用三步法來消除數(shù)據(jù)集中圖像對之間的錯位。? 【Exclusive Dark】:paper, Exclusive Dark數(shù)據(jù)集僅由

    2024年02月05日
    瀏覽(18)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包