国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

圖像超分辨率重建(pytorch)

這篇具有很好參考價(jià)值的文章主要介紹了圖像超分辨率重建(pytorch)。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

本文代碼

?????????本文代碼主體來自CVPR2020論文《Closed-loop matters: Dual regression networks for single image super-resolution》,但原作者并未提供論文亮點(diǎn)--如何使用unpair數(shù)據(jù)進(jìn)行訓(xùn)練的代碼,所以我在其基礎(chǔ)上補(bǔ)齊了該過程的代碼。

? ? ? ? 代碼倉庫:https://github.com/VitaminyW/Super_Solution

? ? ? ? PS:對代碼存在問題可以通過私信或評論區(qū)提問。

一、數(shù)據(jù)預(yù)處理

為了訓(xùn)練模型實(shí)現(xiàn)8倍超分,本工作中使用BICUBIC算法對高清圖像進(jìn)行下采樣8倍,從而獲得作為網(wǎng)絡(luò)輸入的低分辨率圖像。

BICUBIC算法:雙三次插值又稱立方卷積插值。三次卷積插值是一種更加復(fù)雜的插值方式。該算法利用待采樣點(diǎn)周圍16個(gè)點(diǎn)的灰度值作三次插值,不僅考慮到4個(gè)直接相鄰點(diǎn)的灰度影響,而且考慮到各鄰點(diǎn)間灰度值變化率的影響。其權(quán)重函數(shù)如下所示,

?

超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能

?????? 其中a=-0.5,x為待插值點(diǎn)與插值點(diǎn)的距離。插值過程可由下式所示,

? ?超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能

?????? 其中超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能代表距離待插值點(diǎn)超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能的像素值。

超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能

圖1. 0200.png下采圖像展示

二、算法原理

????????

超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能

圖2.DRN網(wǎng)絡(luò)結(jié)構(gòu)圖

2.1? 算法目標(biāo)

????? 在超分辨率問題中,存在著兩個(gè)問題:

????? a. 從超分辨率圖像到低分辨率圖像存在著非常多種下采樣方式,即真實(shí)世界的低分辨率圖像形成的原因多種多樣。

????? b. 深度學(xué)習(xí)是一種基于數(shù)據(jù)的學(xué)習(xí)方式,若數(shù)據(jù)集的輸入是由某種特定下采方式得到的,則模型可能會學(xué)習(xí)到該特定下采方式的偽逆。

2.2??解決方法以及算法原理

????? a. 正向過程

?????????? 網(wǎng)絡(luò)通過借鑒UNet網(wǎng)絡(luò)的結(jié)構(gòu)方式,通過多級下采樣提取圖像特征,并通過concat方式結(jié)合原有圖像特征與上采特征圖進(jìn)行上采樣,從而產(chǎn)生多個(gè)高分辨率圖像。若網(wǎng)絡(luò)存在3個(gè)層級,則每個(gè)層級分別對應(yīng)1倍、2倍以及4倍分辨率重建網(wǎng)絡(luò)。最后通過MSE或MAE損失函數(shù)可以促使網(wǎng)絡(luò)學(xué)習(xí)如何進(jìn)行正向重建。

????? b. 對偶過程

?????????? 正向過程是求解由低分辨率到高分辨率的解,即該問題解空間較大,所以需要較為復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)。對偶過程指在學(xué)習(xí)數(shù)據(jù)中由高分辨率到低分辨率的下采過程,該過程解空間較小,可以使用較為簡單的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行學(xué)習(xí)。

????? c. 半監(jiān)督學(xué)習(xí)

?????????? 由于對偶過程輸入的為網(wǎng)絡(luò)重建出來的高分辨率圖像,其學(xué)習(xí)標(biāo)簽為低分辨率圖像,所以該過程不依賴于是否擁有真實(shí)超分標(biāo)簽,從而網(wǎng)絡(luò)可以進(jìn)行半監(jiān)督學(xué)習(xí)。

????? d. 損失函數(shù)

超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能

????????其中超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能表示第i張低分辨率圖像,超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能表示第超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能張高分辨率圖像,超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能代表網(wǎng)絡(luò)重建,超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能分別代表正向過程和反向過程的評估函數(shù),超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能代表指示超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能是否有對應(yīng)的超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能的函數(shù),若有為1,否則為0. 由超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能函數(shù),在編程中易得pair數(shù)據(jù)與unpair數(shù)據(jù)分別計(jì)算損失函數(shù)進(jìn)行反向傳播。

三、代碼流程

????????

3.1 詳細(xì)步驟:

3.1.1?構(gòu)建數(shù)據(jù)集,數(shù)據(jù)集結(jié)構(gòu)如下圖所示:

下采樣代碼位于代碼目錄的dataProcessing.ipynb

超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能

圖3. 數(shù)據(jù)集結(jié)構(gòu)

3.1.2?設(shè)置option.py文件

????????將--data_dir,--data_train,--data_val參數(shù)修改為對應(yīng)數(shù)據(jù)集路徑與名稱。也可選擇通過命令行輸入。

3.1.3?運(yùn)行訓(xùn)練代碼

????????使用終端打開main.py所在文件目錄,輸入以下指令進(jìn)行訓(xùn)練。

python main.py –batch_size 32 –n_GPUs 4 –save ./experiment/training_result --model DRN-S

3.1.4?由于原文作者未提供使用unpaired數(shù)據(jù)進(jìn)行網(wǎng)絡(luò)fine-tune代碼,本工作根據(jù)論文邏輯,編寫了 main_fine_tune.py代碼,輸入以下指令進(jìn)行訓(xùn)練

python main.py –batch_size 32 –n_GPUs 4 –save ./experiment/fine_tune_result --pre_train {預(yù)訓(xùn)練正向模型的參數(shù)保存地址} --pre_train_dual {預(yù)訓(xùn)練對偶模型的參數(shù)保存地址} --model DRN-S

3.1.5?由于原文作者未提供重建unpaired數(shù)據(jù)的代碼,本工作根據(jù)代碼邏輯編寫了對應(yīng)main_reconstruction.py代碼,輸入指令進(jìn)行預(yù)測。

python main_reconstruction.py --no_augment --model DRN-S --test_only --save ./reconstruction --save_results --batch_size 1 --save ./reconstruction --pre_train {fine-turn后正向模型的參數(shù)保存地址} --pre_train_dual {fine-turn后對偶模型的參數(shù)保存地址}

3.2 過程截圖

a. ./experiment/training_result文件夾下:

超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能

圖4.train輸出內(nèi)容展示

b. ./experiment/fine_tune_result

超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能

圖5.fine-tune輸出內(nèi)容展示

c. ./reconstruction

超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能

圖6.reconstrution輸出內(nèi)容展示

四、部分結(jié)果展示

超分辨率圖像重建,超分辨率重建,pytorch,深度學(xué)習(xí),人工智能

?文章來源地址http://www.zghlxwxcb.cn/news/detail-793905.html

到了這里,關(guān)于圖像超分辨率重建(pytorch)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【Python&圖像超分】Real-ESRGAN圖像超分模型(超分辨率重建)詳細(xì)安裝和使用教程

    【Python&圖像超分】Real-ESRGAN圖像超分模型(超分辨率重建)詳細(xì)安裝和使用教程

    ????????圖像超分是一種圖像處理技術(shù),旨在 提高圖像的分辨率 ,使其具有更高的清晰度和細(xì)節(jié)。這一技術(shù)通常用于圖像重建、圖像恢復(fù)、圖像增強(qiáng)等領(lǐng)域,可以幫助我們更好地理解和利用圖像信息。圖像超分技術(shù)可以通過多種方法實(shí)現(xiàn),包括插值算法、深度學(xué)習(xí)等。其

    2024年02月04日
    瀏覽(28)
  • 位深度/像素/分辨率/圖像大小的計(jì)算/幀率/刷新率

    位深度/像素/分辨率/圖像大小的計(jì)算/幀率/刷新率

    有關(guān)圖像的基本名詞解釋: 在記錄數(shù)字圖像的顏色時(shí),計(jì)算機(jī)實(shí)際上是用每個(gè)像素需要的位深度來表示的。黑白二色的圖像是數(shù)字圖像中最簡單的一種,它只有黑、白兩種顏色,也就是說它的每個(gè)像素只有1位顏色,位深度是1,用2的一次冪來表示;考慮到位深度平均分給R,

    2024年02月11日
    瀏覽(26)
  • 應(yīng)用高分辨率 GAN 對擾動文檔圖像去扭曲的深度Python實(shí)踐

    1. 引言 隨著技術(shù)的不斷發(fā)展,圖像處理在各種場景中的應(yīng)用也變得越來越廣泛。高分辨率 GAN (Generative Adversarial Network) 是近年來圖像處理領(lǐng)域的熱點(diǎn)技術(shù),它能夠生成極高分辨率的圖像,與此同時(shí),它也可以用于各種修復(fù)和增強(qiáng)任務(wù)。本文將專注于使用高分辨率 GAN 對擾動文

    2024年02月12日
    瀏覽(19)
  • 遙感圖像應(yīng)用:在低分辨率圖像上實(shí)現(xiàn)洪水損害檢測(遷移學(xué)習(xí))

    遙感圖像應(yīng)用:在低分辨率圖像上實(shí)現(xiàn)洪水損害檢測(遷移學(xué)習(xí))

    對于卷積神經(jīng)網(wǎng)絡(luò)(CNN)等模型,通常包括一些卷積層和池化層,這些層的權(quán)重用于提取圖像的特征。當(dāng)這些層的參數(shù)被凍結(jié)時(shí),這些權(quán)重將保持不變,不會在訓(xùn)練過程中進(jìn)行更新。這意味著模型會繼續(xù)使用預(yù)訓(xùn)練模型的 特征提取能力 。 如果模型還包含其他的預(yù)訓(xùn)練層,例

    2024年02月09日
    瀏覽(21)
  • 探秘GFPGAN:騰訊AI的超分辨率重建神器

    項(xiàng)目地址:https://gitcode.com/TencentARC/GFPGAN 在圖像處理的世界中,提高低質(zhì)量或模糊圖片的清晰度一直是一項(xiàng)挑戰(zhàn)。而今天,我們要介紹的就是來自騰訊ARC團(tuán)隊(duì)的開源項(xiàng)目——GFPGAN(Gated Frequency Priors Guided Generative Adversarial Networks)。這是一個(gè)基于深度學(xué)習(xí)的高精度超分辨率重建模

    2024年04月10日
    瀏覽(19)
  • HarmonyOS學(xué)習(xí)路之開發(fā)篇—AI功能開發(fā)(圖像超分辨率)

    針對圖片分辨率不足的問題,傳統(tǒng)的解決方案是使用雙線性或雙三次插值的方法來放大圖像;而針對圖片壓縮噪聲的問題,傳統(tǒng)的解決方案則是通過各種算法實(shí)現(xiàn)平滑、去噪。 本SDK使用智能的方法,基于深度神經(jīng)網(wǎng)絡(luò),依托硬件的神經(jīng)網(wǎng)絡(luò)加速器,提供適用于移動終端的1x和

    2024年02月11日
    瀏覽(97)
  • 【YOLOv8改進(jìn)】 SPD-Conv空間深度轉(zhuǎn)換卷積,處理低分辨率圖像和小對象問題 (論文筆記+引入代碼)

    【YOLOv8改進(jìn)】 SPD-Conv空間深度轉(zhuǎn)換卷積,處理低分辨率圖像和小對象問題 (論文筆記+引入代碼)

    卷積神經(jīng)網(wǎng)絡(luò)(CNNs)在許多計(jì)算機(jī)視覺任務(wù)中取得了巨大成功,例如圖像分類和目標(biāo)檢測。然而,當(dāng)面對圖像分辨率低或?qū)ο筝^小的更加困難的任務(wù)時(shí),它們的性能迅速下降。在本文中,我們指出這一問題根源于現(xiàn)有CNN架構(gòu)中一個(gè)有缺陷但常見的設(shè)計(jì),即使用了步長卷積和

    2024年04月14日
    瀏覽(34)
  • 『CV學(xué)習(xí)筆記』圖像超分辨率等圖像處理任務(wù)中的評價(jià)指標(biāo)PSNR(峰值信噪比)

    圖像超分辨率等圖像處理任務(wù)中的評價(jià)指標(biāo)PSNR(峰值信噪比) 峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)是圖像超分辨率等圖像處理任務(wù)中常用的一個(gè)指標(biāo),用來評估圖像質(zhì)量。PSNR的值越高,表示失真越小,圖像質(zhì)量越好。 PSNR是通過對比原圖像和處理后圖像的每個(gè)像素的差異來

    2024年02月06日
    瀏覽(22)
  • 圖像超分辨率簡單介紹

    圖像超分辨率(Image Super-Resolution,簡稱SR)是一種通過使用計(jì)算機(jī)算法提高圖像分辨率的技術(shù),即從低分辨率的圖像中生成高分辨率的圖像。圖像SR可以在許多領(lǐng)域得到應(yīng)用,例如計(jì)算機(jī)視覺、醫(yī)學(xué)成像、遙感等。 圖像SR旨在從低分辨率(低清晰度)圖像中提高圖像質(zhì)量和信

    2024年02月06日
    瀏覽(27)
  • AI數(shù)字人:語音驅(qū)動面部模型及超分辨率重建Wav2Lip-HD

    AI數(shù)字人:語音驅(qū)動面部模型及超分辨率重建Wav2Lip-HD

    數(shù)字人打造中語音驅(qū)動人臉和超分辨率重建兩種必備的模型,它們被用于實(shí)現(xiàn)數(shù)字人的語音和圖像方面的功能。通過Wav2Lip-HD項(xiàng)目可以快速使用這兩種模型,完成高清數(shù)字人形象的打造。 項(xiàng)目代碼地址:github地址 1.1 語音驅(qū)動面部模型wav2lip 語音驅(qū)動人臉技術(shù)主要是通過語音信

    2024年02月16日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包