国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Image Super-Resolution via Iterative Refinement 論文筆記

這篇具有很好參考價值的文章主要介紹了Image Super-Resolution via Iterative Refinement 論文筆記。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

前言

基于Diffusion Model來做的超分辨,與以往基于GAN和CNN網(wǎng)絡(luò)的不一樣,Diffusion Model是從低分辨率圖像中學(xué)習(xí)噪聲然后通過UNet來估計噪聲,再進(jìn)行噪聲去除來還原圖像。主要是基于DDPM這篇論文的理論上進(jìn)行改進(jìn)的,相比其他方法來說可以很好的還原圖像的高頻信息,雖然在PSNR和SSIM指標(biāo)上一般,但是實際出來的效果來說還是不錯的,并且也證明了Diffusion Model這種生成模型在超分辨上方法也是可行的。

網(wǎng)絡(luò)框架

這篇的網(wǎng)絡(luò)框架基本是基于DDPM上面進(jìn)行了略微的改進(jìn),區(qū)別是出來的圖像不是隨機(jī)生成的,是對低分辨率圖像作為條件進(jìn)行生成的。

主要分為兩個階段,一個是高斯噪聲擴(kuò)散過程,主要是在對模型進(jìn)行訓(xùn)練的時候,給圖像不斷地添加隨機(jī)的高斯噪聲,然后通過UNet網(wǎng)絡(luò)對噪聲進(jìn)行估計,通過估計之后的噪聲與原添加的噪聲進(jìn)行對比,損失函數(shù)就是使得這兩個噪聲最可能接近,以此來訓(xùn)練出一個很好的噪聲推理網(wǎng)絡(luò);第二個階段是推理階段,就是當(dāng)訓(xùn)練好網(wǎng)絡(luò)后,輸入一張低分辨率的圖片估計當(dāng)前噪聲然后進(jìn)行推理直至還原到高分辨率。

Gaussian Diffusion Process

Image Super-Resolution via Iterative Refinement 論文筆記

如上圖所示就是訓(xùn)練階段,原圖x0對應(yīng)的就是GT圖像,首先均勻采樣一個t和噪聲z,然后通過上面那條式子估計出第t步的噪聲圖像xt,是固定的參數(shù),它的選取依賴于t,于是就得到了xt對應(yīng)的圖像,這個過程是一步到位的,不是一步步加噪聲推理出來的xt,上面的圖片只是為了方便理解。然后通過xt對應(yīng)的圖像和低分辨率圖像進(jìn)行三次線性插值后的圖像進(jìn)行拼接得到的就是6通道的圖像,作為條件輸入到Unet網(wǎng)絡(luò)進(jìn)行估計當(dāng)前噪聲,然后對于下圖來說就是損失函數(shù)(=,對應(yīng)的就是Unet的網(wǎng)絡(luò)模型),就是估計原來采樣的噪聲和估計的噪聲的差距,并且使得盡可能接近。

Image Super-Resolution via Iterative Refinement 論文筆記

Inference via Iterative Refinement

Image Super-Resolution via Iterative Refinement 論文筆記推理階段如上圖,首先經(jīng)過隨機(jī)采樣得到一個xt,然后和低分辨率圖像經(jīng)過三次線性插值后進(jìn)行拼接作為條件,輸入到Unet網(wǎng)絡(luò)對當(dāng)前噪聲進(jìn)行估計,然后通過上面的式子對噪聲進(jìn)行去除,得到xt- 1的噪聲圖,然后繼續(xù)循環(huán)這個過程,得到xt-2的噪聲圖,以此類推直到得到x0的高分辨率圖像。

改進(jìn)

與DDPM模型不一樣的地方在于:

①作為有條件生成模型,是將低分辨率圖像進(jìn)行三次線性插值后與噪聲圖進(jìn)行拼接作為輸入估計噪聲。

②在DDPM中的是基于采樣得到的t進(jìn)行選取的參數(shù),但是在SR3中的不再直接取,而是在采樣得到t之后,經(jīng)過和之間均勻分布進(jìn)行選取,使得過程更加連續(xù)。

③不再輸入t給Unet,而是直接輸入noise level,即②中得到的? 作為Unet的輸入。

實驗

Image Super-Resolution via Iterative Refinement 論文筆記

對比了GAN和PULSE模型和自回歸模型,在PSNR和SSIM上的效果相對比較一般,另外還弄了個一致性的指標(biāo),因為相對其傳統(tǒng)的超分辨模型都是基于PSNR進(jìn)行訓(xùn)練的,而SR3不是,所以指標(biāo)相對較低也正常。

Image Super-Resolution via Iterative Refinement 論文筆記

?對比和自回歸模型上的差異,自回歸模型是基于PSNR進(jìn)行訓(xùn)練的,SR3 是利用FID去尋找噪聲的Z的,因而各自有優(yōu)勢。

Image Super-Resolution via Iterative Refinement 論文筆記

這個表展示了在imganet上進(jìn)行訓(xùn)練后的超分辨圖的分類準(zhǔn)確率的情況,可以看到SR3確實有一定的優(yōu)勢,這類實驗展示的是超分辨后的圖像對目標(biāo)檢測等任務(wù)的提升程度。

Image Super-Resolution via Iterative Refinement 論文筆記

Image Super-Resolution via Iterative Refinement 論文筆記

?最后還用了一個Foolrate,用人眼來分辨超分辨圖片哪個更接近低分辨率的圖片,可以看到SR3在欺騙人眼的能力上有非常顯著的效果。

總結(jié)

?SR3的模型使用了一種全新的超分辨思路,與以往的基于GAN和CNN網(wǎng)絡(luò)的完全不一樣,主要是通過圖像的概率分布來對圖像進(jìn)行不斷降噪來獲取超分辨的圖像。實驗結(jié)果來說因為沒有使用PSNR等指標(biāo)作為損失函數(shù),雖然在這些指標(biāo)的領(lǐng)域比較一般,但是在其他實驗上還是有非常不錯的效果。尤其個人認(rèn)為在imagenet上分辨從錯誤率上得到了提升,當(dāng)然其實并沒有對比SOTA的模型,所以缺乏一定的說服力,但是總的來說這個思路是有效果的,而且有很大的提升空間。

?文章來源地址http://www.zghlxwxcb.cn/news/detail-481299.html

到了這里,關(guān)于Image Super-Resolution via Iterative Refinement 論文筆記的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 閱讀RFDN-Residual Feature Distillation Network for Lightweight Image Super-Resolution

    閱讀RFDN-Residual Feature Distillation Network for Lightweight Image Super-Resolution

    Residual Feature Distillation Network for Lightweight Image Super-Resolution Abstract. 單圖像超分辨率(SISR)的最新進(jìn)展探索了卷積神經(jīng)網(wǎng)絡(luò)(CNN)的力量,以獲得更好的性能。盡管基于cnn的方法取得了巨大的成功,但為了解決高計算量的問題,人們提出了各種快速和輕量級的CNN模型。信息蒸餾

    2024年02月10日
    瀏覽(22)
  • BSRN網(wǎng)絡(luò)——《Blueprint Separable Residual Network for Efficient Image Super-Resolution》論文解讀

    BSRN網(wǎng)絡(luò)——《Blueprint Separable Residual Network for Efficient Image Super-Resolution》論文解讀

    目錄 摘要: 網(wǎng)絡(luò)架構(gòu): 具體流程: BSConv: ESDB——Efficient Separable Distillation Block: ?Blueprint Shallow Residual Block (BSRB): ESA和CCA: ?實驗: BSRN的實現(xiàn)細(xì)節(jié): BSRN-S(比賽)的實現(xiàn)細(xì)節(jié): 不同卷積分解的效果: ESA和CCA的有效性: ?不同激活函數(shù)對比: BSRN的有效性: ?和SOTA方法的

    2024年02月05日
    瀏覽(25)
  • 【論文閱讀】SISR綜述:From Beginner to Master: A Survey for Deep Learning-based Single-Image Super-Resolution

    【論文閱讀】SISR綜述:From Beginner to Master: A Survey for Deep Learning-based Single-Image Super-Resolution

    論文地址:https://doi.org/10.48550/arXiv.2109.14335 單幅圖像超分辨率(SISR)是圖像處理中的一項重要任務(wù),旨在提高成像系統(tǒng)的分辨率。近年來,在深度學(xué)習(xí)(DL)的幫助下,SISR取得了巨大的飛躍,并取得了可喜的成果。在本綜述中,我們對基于dl的SISR方法進(jìn)行了概述,并根據(jù)重建效率

    2024年02月08日
    瀏覽(34)
  • 論文閱讀 Self-Supervised Burst Super-Resolution

    論文閱讀 Self-Supervised Burst Super-Resolution

    這是一篇 ICCV 2023 的文章,主要介紹的是用自監(jiān)督的方式進(jìn)行多幀超分的學(xué)習(xí) Abstract 這篇文章介紹了一種基于自監(jiān)督的學(xué)習(xí)方式來進(jìn)行多幀超分的任務(wù),這種方法只需要原始的帶噪的低分辨率的圖。它不需要利用模擬退化的方法來構(gòu)造數(shù)據(jù),而且模擬退化的方法又可能存在域

    2024年01月18日
    瀏覽(23)
  • 論文閱讀《Spherical Space Feature Decomposition for Guided Depth Map Super-Resolution》

    論文地址:https://openaccess.thecvf.com/content/ICCV2023/papers/Zhao_Spherical_Space_Feature_Decomposition_for_Guided_Depth_Map_Super-Resolution_ICCV_2023_paper.pdf 源碼地址: https://github.com/Zhaozixiang1228/GDSR-SSDNet ??GDSR是一種多模態(tài)圖像處理的熱門話題,它的目的是利用同一場景中的高分辨率(HR)RGB圖像中

    2024年01月16日
    瀏覽(26)
  • Temporal Modulation Network for Controllable Space-Time Video Super-Resolution閱讀筆記

    Temporal Modulation Network for Controllable Space-Time Video Super-Resolution閱讀筆記

    Temporal Modulation Network for Controllable Space-Time Video Super-Resolution 可控時空視頻超分辨率的時間調(diào)制網(wǎng)絡(luò) ?論文:https://arxiv.org/pdf/2104.10642v2.pdf 代碼:https://github.com/CS-GangXu/TMNet 研究機(jī)構(gòu):南開、中科院、騰訊優(yōu)圖 本篇筆記主要對整篇論文從頭到尾進(jìn)行閱讀分析,本文內(nèi)容有點多,

    2023年04月14日
    瀏覽(22)
  • 論文閱讀:Feature Refinement to Improve High Resolution Image Inpainting

    論文閱讀:Feature Refinement to Improve High Resolution Image Inpainting

    項目地址:https://github.com/geomagical/lama-with-refiner 論文地址:https://arxiv.org/abs/2109.07161 發(fā)表時間:2022年6月29日 項目體驗地址:https://colab.research.google.com/github/advimman/lama/blob/master/colab/LaMa_inpainting.ipynb#scrollTo=-VZWySTMeGDM 解決了在高分辨率下工作的神經(jīng)網(wǎng)絡(luò)的非繪制質(zhì)量的下降問題

    2024年01月17日
    瀏覽(27)
  • 【論文閱讀筆記】Bicubic++: Slim, Slimmer, Slimmest Designing an Industry-Grade Super-Resolution Network

    【論文閱讀筆記】Bicubic++: Slim, Slimmer, Slimmest Designing an Industry-Grade Super-Resolution Network

    論文地址:https://arxiv.org/pdf/2305.02126.pdf ??本文提出的實時性、輕量級的圖像超分網(wǎng)絡(luò),名為 Bicubic++ 。 ??Bicubic++的網(wǎng)絡(luò)結(jié)構(gòu),首先學(xué)習(xí)了圖像的快速可逆降級和低分辨率特征,以減少計算量。 ??然后作者還設(shè)計了一個訓(xùn)練管道,可以在不使用幅度或梯度(magnitude or

    2024年04月17日
    瀏覽(14)
  • Perceptual Loss(感知損失)&Perceptual Losses for Real-Time Style Transferand Super-Resolution論文解讀

    Perceptual Loss(感知損失)&Perceptual Losses for Real-Time Style Transferand Super-Resolution論文解讀

    由于傳統(tǒng)的L1,L2 loss是針對于像素級的損失計算,且L2 loss與人眼感知的圖像質(zhì)量并不匹配,單一使用L1或L2 loss對于超分等任務(wù)來說恢復(fù)出來的圖像往往細(xì)節(jié)表現(xiàn)都不好。 現(xiàn)在的研究中,L2 loss逐步被人眼感知loss所取代。人眼感知loss也被稱為perceptual loss(感知損失),它與MSE(

    2023年04月20日
    瀏覽(28)
  • Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement

    Self-Polish: Enhance Reasoning in Large Language Models via Problem Refinement

    文章鏈接 核心思想是通過instruction讓LLM來優(yōu)化問題本身,從而達(dá)到更好的效果,且這種針對問題的優(yōu)化可以跟其他的prompt技術(shù),如CoT或者Least-to-Most相結(jié)合。 作者提出了一些重述問題的準(zhǔn)則: (1)簡短:問題不要太長,確保容易理解 (2)清晰:問題表述清晰,能量化的部分

    2024年02月08日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包