国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models 論文筆記

這篇具有很好參考價值的文章主要介紹了SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models 論文筆記。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

前言

由于大多數(shù)基于卷積神經(jīng)網(wǎng)絡或者Attention機制的超分辨模型大部分都是PSNR主導的,即用PSNR作為損失函數(shù)進行訓練,這會導致超分辨圖像過度平滑的問題,也就是超分辨后的圖像高頻信息不能很好保留,并且超分辨的圖像較為固定,對于超分辨這種不適定問題來說不太合適。另外一種超分辨模型是基于GAN進行圖像生成,會存在訓練困難、模型不穩(wěn)定的問題。于是論文提出了基于擴散模型的超分辨模型,具有特點如下:①對于一張輸入低分辨率的圖片可以產(chǎn)生多種高分辨率的結果,并且很好地保留了高頻信息;②非常容易訓練;③可以靈活地進行圖像處理、內(nèi)容融合、潛在空間內(nèi)插。

網(wǎng)絡模型

區(qū)別于DDPM的無條件生成模型,SRDiff是一種條件生成模型,需要以輸入的低分辨率圖像作為條件,然后生成高分辨率的圖片。模型整體分為兩個階段,一個是訓練階段,另外一個是推理階段,這個是和DDPM的原理是一樣的。其中,只有噪聲的估計這一步驟中需要神經(jīng)網(wǎng)絡,用的也是Unet的模型。

SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models 論文筆記

上圖是SRDiff模型的整體結構,中間部分為Unet的噪聲估計模型,具體分為如下兩個階段進行分析。

訓練階段

SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models 論文筆記

?SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models 論文筆記

?上圖分別是訓練階段的偽代碼和流程圖,XL是低分辨率輸入圖片,XH是對應的原始高分辨率圖片,Xe是經(jīng)過預訓練模型后的初始預測高分辨率圖片,up(XL)是直接對低分辨率進行bicubic上采樣后的圖片,Xr是上采樣圖片和真實高分辨率XH相減之后的高頻信息圖片,然后隨機采樣噪聲的ε計算得到Xt的噪聲圖,然后和估計噪聲計算損失,對噪聲估計網(wǎng)絡進行訓練。

推理階段

SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models 論文筆記

?SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models 論文筆記

以上是推理階段的偽代碼和流程圖,Xe、初始隨機采樣的噪聲圖Xt和t作為Unet的輸入計算得到第t步估計得到的噪聲t,然后加入隨機采樣的擾動Z,計算得到Xt-1的噪聲圖,以此循環(huán)直至得到X0,最后X0和上采樣的XL進行相加最后得到高分率圖片Xsr。

實驗

CelebA和DIV2K上的超分實驗

SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models 論文筆記

SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models 論文筆記

?消融實驗

SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models 論文筆記

?擴展實驗

SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models 論文筆記

上圖是擴展實驗,左圖為內(nèi)容融合,在不同T時將第一幅圖的眼睛融合到第二個人的臉上,隨著t增大效果也看起來更加協(xié)調。右圖為潛在空間插值實驗,對于給定的LR圖像,SRDiff可以通過潛在空間內(nèi)插來操縱其預測,該方法將兩個SR預測的潛伏期進行線性內(nèi)插,并生成一個新的SR預測。

?總結

本文是基于擴散模型提出的超分辨方法,通過算法來看其實本質上是通過用圖像的噪聲來對高頻信息進行預測,最后再和上采用圖進行相加,得到的即為高分辨率圖片。在一些數(shù)據(jù)集上取得了不錯的效果,并且該模型在圖像的內(nèi)容融合上和潛在空間插值可以取得不錯的效果。文章來源地址http://www.zghlxwxcb.cn/news/detail-514992.html

到了這里,關于SRDiff: Single Image Super-Resolution with Diffusion Probabilistic Models 論文筆記的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 論文筆記 | 【CVPR-2023】Activating More Pixels in Image Super-Resolution Transformer

    論文筆記 | 【CVPR-2023】Activating More Pixels in Image Super-Resolution Transformer

    拋磚引玉了,如有不同意見歡迎討論。 在超分Transformer中激活更多像素。 澳門大學、中科大、上海人工智能實驗室的,董超老師的團隊。 CVPR2023。 LAM:一種為SR任務設計的歸因方法,能顯示模型在進行超分辨率重建的過程中哪些像素起到了作用。一般來說,被利用像素的范圍

    2024年02月11日
    瀏覽(22)
  • 閱讀RFDN-Residual Feature Distillation Network for Lightweight Image Super-Resolution

    閱讀RFDN-Residual Feature Distillation Network for Lightweight Image Super-Resolution

    Residual Feature Distillation Network for Lightweight Image Super-Resolution Abstract. 單圖像超分辨率(SISR)的最新進展探索了卷積神經(jīng)網(wǎng)絡(CNN)的力量,以獲得更好的性能。盡管基于cnn的方法取得了巨大的成功,但為了解決高計算量的問題,人們提出了各種快速和輕量級的CNN模型。信息蒸餾

    2024年02月10日
    瀏覽(22)
  • BSRN網(wǎng)絡——《Blueprint Separable Residual Network for Efficient Image Super-Resolution》論文解讀

    BSRN網(wǎng)絡——《Blueprint Separable Residual Network for Efficient Image Super-Resolution》論文解讀

    目錄 摘要: 網(wǎng)絡架構: 具體流程: BSConv: ESDB——Efficient Separable Distillation Block: ?Blueprint Shallow Residual Block (BSRB): ESA和CCA: ?實驗: BSRN的實現(xiàn)細節(jié): BSRN-S(比賽)的實現(xiàn)細節(jié): 不同卷積分解的效果: ESA和CCA的有效性: ?不同激活函數(shù)對比: BSRN的有效性: ?和SOTA方法的

    2024年02月05日
    瀏覽(25)
  • 論文閱讀 Self-Supervised Burst Super-Resolution

    論文閱讀 Self-Supervised Burst Super-Resolution

    這是一篇 ICCV 2023 的文章,主要介紹的是用自監(jiān)督的方式進行多幀超分的學習 Abstract 這篇文章介紹了一種基于自監(jiān)督的學習方式來進行多幀超分的任務,這種方法只需要原始的帶噪的低分辨率的圖。它不需要利用模擬退化的方法來構造數(shù)據(jù),而且模擬退化的方法又可能存在域

    2024年01月18日
    瀏覽(23)
  • 論文閱讀《Spherical Space Feature Decomposition for Guided Depth Map Super-Resolution》

    論文地址:https://openaccess.thecvf.com/content/ICCV2023/papers/Zhao_Spherical_Space_Feature_Decomposition_for_Guided_Depth_Map_Super-Resolution_ICCV_2023_paper.pdf 源碼地址: https://github.com/Zhaozixiang1228/GDSR-SSDNet ??GDSR是一種多模態(tài)圖像處理的熱門話題,它的目的是利用同一場景中的高分辨率(HR)RGB圖像中

    2024年01月16日
    瀏覽(25)
  • high-resolution image synthesis with latent diffusion models

    high-resolution image synthesis with latent diffusion models

    如何通俗理解擴散模型? - 知乎 瀉藥。實驗室最近人人都在做擴散,從連續(xù)到離散,從CV到NLP,基本上都被diffusion洗了一遍。但是觀察發(fā)現(xiàn),里面的數(shù)學基礎并不是模型應用的必須。其實大部分的研究者都不需要理解擴散模型的數(shù)學本質,更需要的是對… https://zhuanlan.zhihu.

    2023年04月19日
    瀏覽(27)
  • Temporal Modulation Network for Controllable Space-Time Video Super-Resolution閱讀筆記

    Temporal Modulation Network for Controllable Space-Time Video Super-Resolution閱讀筆記

    Temporal Modulation Network for Controllable Space-Time Video Super-Resolution 可控時空視頻超分辨率的時間調制網(wǎng)絡 ?論文:https://arxiv.org/pdf/2104.10642v2.pdf 代碼:https://github.com/CS-GangXu/TMNet 研究機構:南開、中科院、騰訊優(yōu)圖 本篇筆記主要對整篇論文從頭到尾進行閱讀分析,本文內(nèi)容有點多,

    2023年04月14日
    瀏覽(22)
  • 4、High-Resolution Image Synthesis with Latent Diffusion Models

    4、High-Resolution Image Synthesis with Latent Diffusion Models

    github地址 diffusion model明顯的缺點是耗費大量的時間、計算資源,為此,論文將其應用于強大的預訓練自編碼器的潛在空間 ,這是首次允許在復雜性降低和細節(jié)保存之間達到一個近乎最佳的點,極大地提高了視覺保真度。通過在模型架構中引入交叉注意層,將擴散模型轉化為

    2024年02月12日
    瀏覽(26)
  • 論文閱讀--High-Resolution Image Synthesis with Latent Diffusion Models

    論文閱讀--High-Resolution Image Synthesis with Latent Diffusion Models

    High-Resolution Image Synthesis with Latent Diffusion Models論文閱讀 Abstract Introduction Diffusion model相比GAN可以取得更好的圖片生成效果,然而該模型是一種自回歸模型,需要反復迭代計算,因此訓練和推理代價都很高。論文提出一種在潛在表示空間(latent space)上進行diffusion過程的方法,

    2024年01月17日
    瀏覽(51)
  • 【論文筆記】SINE: SINgle Image Editing with Text-to-Image Diffusion Models

    【論文筆記】SINE: SINgle Image Editing with Text-to-Image Diffusion Models

    聲明 不定期更新自己精度論文,通俗易懂,初級小白也可以理解 涉及范圍:深度學習方向,包括 CV、NLP 論文標題:SINE: SINgle Image Editing with Text-to-Image Diffusion Models 論文鏈接: https://www.semanticscholar.org/paper/SINE%3A-SINgle-Image-Editing-with-Text-to-Image-Zhang-Han/a6ad30123bef4b19ee40c3d63cfabf00

    2024年02月13日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包