国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【圖像修復(fù)】AOT-GAN《Aggregated Contextual Transformations for High-Resolution Image Inpainting》

這篇具有很好參考價(jià)值的文章主要介紹了【圖像修復(fù)】AOT-GAN《Aggregated Contextual Transformations for High-Resolution Image Inpainting》。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

貢獻(xiàn)

  1. 提出用于高分辨率圖像修復(fù)的aggregated contextual transformations(AOT),它允許捕獲信息豐富的遠(yuǎn)程上下文和豐富的感興趣模式,以進(jìn)行上下文推理。
  2. 設(shè)計(jì)了一個(gè)新的掩模預(yù)測任務(wù)來訓(xùn)練用于圖像修復(fù)的判別器,使判別器可以區(qū)分真實(shí)patch和合成patch,從而有助于生成器合成細(xì)粒度紋理。

模型結(jié)構(gòu)

整體結(jié)構(gòu)

【圖像修復(fù)】AOT-GAN《Aggregated Contextual Transformations for High-Resolution Image Inpainting》


AOT block

生成器先通過幾層標(biāo)準(zhǔn)的卷積層進(jìn)行編碼,再通過AOT塊,最后再通過轉(zhuǎn)置卷積進(jìn)行解碼。

AOT塊通過三個(gè)步驟采用拆分轉(zhuǎn)換合并策略:

(1)拆分:AOT塊將標(biāo)準(zhǔn)卷積的卷積核拆分為多個(gè)子核,每個(gè)子卷積核具有較少的輸出通道;

(2)轉(zhuǎn)換:每個(gè)子卷積核具有不同的膨脹率。較大的膨脹率使子卷積核能夠關(guān)注到輸入圖像的較大區(qū)域,而使用較小膨脹率的子核則關(guān)注較小感受野的局部模式。

(3)聚合:來自不同感受野的上下文轉(zhuǎn)換最終通過串聯(lián)和標(biāo)準(zhǔn)卷積進(jìn)行聚合,以進(jìn)行特征融合。
【圖像修復(fù)】AOT-GAN《Aggregated Contextual Transformations for High-Resolution Image Inpainting》

這樣的設(shè)計(jì)能夠讓AOT塊通過不同的視圖預(yù)測圖像的每個(gè)輸出像素。

下面的公式中對傳統(tǒng)的相同剩余連接進(jìn)行改進(jìn),改進(jìn)為選通剩余連接,聚合公式中g(shù)是空間可變門控值。這種空間變化的特征聚合在盡可能更新缺失區(qū)域內(nèi)的特征的同時(shí),保留缺失區(qū)域外的已知特征。

x 3 = x 1 × g + x 2 × ( 1 ? g ) x_{3}=x_{1} \times g+x_{2}{\large }\times(1-g) x3?=x1?×g+x2?×(1?g)


Soft Mask-Guided PatchGAN (SM-PatchGAN)

解決什么問題?

大多數(shù)深度修復(fù)模型往往基于重建損失(L1 Loss)生成所有可能解決方案的平均值,這會導(dǎo)致紋理模糊。

修復(fù)結(jié)果表示為:
z = x ⊙ ( 1 ? m ) + G ( x ⊙ ( 1 ? m ) , m ) ⊙ m z=x \odot(1-m)+G(x \odot(1-m), m) \odot m z=x(1?m)+G(x(1?m),m)m
修復(fù)結(jié)果為兩部分的疊加,原圖像的完好區(qū)域和生成的空洞區(qū)域。其中,m為二進(jìn)制掩碼(0表示已知像素,1表示未知像素),即缺失區(qū)域表示為白色。

判別器的對抗損失:

L a d v D = E z ~ p z [ ( D ( z ) ? σ ( 1 ? m ) ) 2 ] + E x ~ p data? [ ( D ( x ) ? 1 ) 2 ] \begin{array}{c} L_{a d v}^{D}=\mathbb{E}_{z \sim p_{z}}\left[(D(z)-\sigma(1-m))^{2}\right]+ \mathbb{E}_{x \sim p_{\text {data }}}\left[(D(x)-1)^{2}\right] \end{array} LadvD?=Ezpz??[(D(z)?σ(1?m))2]+Expdata???[(D(x)?1)2]?

其中, σ \sigma σ 表示下采樣和高斯濾波的合成函數(shù)。

生成器的對抗損失:

L a d v G = E z ~ p z [ ( D ( z ) ? 1 ) 2 ⊙ m ] L_{a d v}^{G}=\mathbb{E}_{z \sim p_{z}}\left[(D(z)-1)^{2} \odot m\right] LadvG?=Ezpz??[(D(z)?1)2m]

判別器上的設(shè)計(jì)

對于判別器設(shè)計(jì)了soft patch-level mask。

【圖像修復(fù)】AOT-GAN《Aggregated Contextual Transformations for High-Resolution Image Inpainting》

不同設(shè)計(jì)的比較:

PatchGAN的判別器將所有修復(fù)圖像中的補(bǔ)丁都判別為假,這忽略了缺失區(qū)域之外的補(bǔ)丁確實(shí)來自真實(shí)圖像。 而所提出的SM-PatchGAN能夠?qū)⑷笔^(qū)域的合成補(bǔ)丁與上下文的真實(shí)補(bǔ)丁區(qū)分開來,這可以增強(qiáng)鑒別器的能力。

HM-PatchGAN中沒有使用高斯濾波器,從而忽略了修補(bǔ)圖像的邊界周圍可能同時(shí)包含真實(shí)像素和合成像素。而所提出的SM-PatchGAN引入了高斯濾波器解決了這個(gè)問題。


總體優(yōu)化

優(yōu)化函數(shù)包括四個(gè): L 1 L_1 L1? loss(重建損失)、style loss(風(fēng)格損失)、perceptual loss(感知損失)和adversarial loss (對抗損失)。

(1) L 1 L_1 L1? loss確保像素級的重建精度
L r e c = ∥ x ? G ( x ⊙ ( 1 ? m ) , m ) ∥ 1 L_{r e c}=\|x-G(x \odot(1-m), m)\|_{1} Lrec?=x?G(x(1?m),m)1?
(2)perceptual loss旨在最小化修復(fù)圖像和真實(shí)圖像的激活圖之間的 L 1 L_1 L1?距離
L p e r = ∑ i ∥ ? i ( x ) ? ? i ( z ) ∥ 1 N i L_{p e r}=\sum_{i} \frac{\left\|\phi_{i}(x)-\phi_{i}(z)\right\|_{1}}{N_{i}} Lper?=i?Ni??i?(x)??i?(z)1??
其中, ? i \phi_{i} ?i? 來自預(yù)訓(xùn)練網(wǎng)絡(luò)(如VGG19)第i層的激活圖, N i N_i Ni? ? i \phi_{i} ?i? 中的總數(shù)量。

(3)style loss被定義為修復(fù)圖像和真實(shí)圖像深層特征的Gram矩陣之間的 L 1 L_1 L1?距離:
L s t y = E i [ ∥ ? i ( x ) T ? i ( x ) ? ? i ( z ) T ? i ( z ) ∥ 1 ] L_{s t y}=\mathbb{E}_{i}\left[\left\|\phi_{i}(x)^{T} \phi_{i}(x)-\phi_{i}(z)^{T} \phi_{i}(z)\right\|_{1}\right] Lsty?=Ei?[ ??i?(x)T?i?(x)??i?(z)T?i?(z) ?1?]
(4)adversarial loss
L a d v = E z ~ p z [ ( D ( z ) ? 1 ) 2 ⊙ m ] L_{a d v}=\mathbb{E}_{z \sim p_{z}}\left[(D(z)-1)^{2} \odot m\right] Ladv?=Ezpz??[(D(z)?1)2m]
總的優(yōu)化目標(biāo):
L = λ a d v L a d v G + λ r e c L r e c + λ p e r L p e r + λ s t y L s t y L=\lambda_{a d v} L_{a d v}^{G}+\lambda_{r e c} L_{r e c}+\lambda_{p e r} L_{p e r}+\lambda_{s t y} L_{s t y} L=λadv?LadvG?+λrec?Lrec?+λper?Lper?+λsty?Lsty?
參數(shù)設(shè)置: λ a d v \lambda_{a d v} λadv? = 0.01, λ r e c \lambda_{rec} λrec? = 1, λ p e r \lambda_{per} λper? = 0.1, λ s t y \lambda_{sty} λsty? = 250。


實(shí)現(xiàn)細(xì)節(jié)

SM-PatchGAN中的高斯濾波處理,將高斯核的核大小設(shè)置為了70×70。為了避免歸一化層引起的顏色偏移問題,移除了生成器網(wǎng)絡(luò)中的所有歸一化層。

訓(xùn)練參數(shù)設(shè)置:

一個(gè)mini-batch中,隨機(jī)采8張圖片和相應(yīng)的掩碼。生成器和鑒別器的學(xué)習(xí)率都為 1 0 ? 4 10^{-4} 10?4,使用 β 1 = 0 ?和? β 2 = 0.9 \beta_{1}=0 \text { 和 } \beta_{2}=0.9 β1?=0??β2?=0.9 的優(yōu)化器。使用ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練的VGG19作為預(yù)訓(xùn)練網(wǎng)絡(luò),用于計(jì)算風(fēng)格損失和感知損失。


實(shí)驗(yàn)

使用的數(shù)據(jù)集

Places2、CELEBA-HQ、QMUL-OpenLogo

掩膜數(shù)據(jù)集

論文Image Inpainting for Irregular Holes Using Partial Convolutions中所提供的掩膜數(shù)據(jù)集,也是大多數(shù)圖像修復(fù)任務(wù)中所使用的。

對比的模型基準(zhǔn)

(1)CA:Context encoders: Feature learning by inpainting. (2016)

(2)PEN-Net:Learning pyramid-context encoder network for high-quality image inpainting. (2019)

(3)PConv:Image inpainting for irregular holes using partial convolutions. (2018)

(4)EdgeConnect:Edgeconnect: Generative image inpainting with adversarial edge learning. (2019)

(5)GatedConv:Free-form image inpainting with gated convolution. (2019)

(6)HiFill :Contextual residual aggregation for ultra high-resolution image inpainting. (2020)

(7)MNPS :High-resolution image inpainting using multi-scale neural patch synthesis. (2017)

上述7個(gè)模型都是Image Inpainting領(lǐng)域比較經(jīng)典的模型。

評估標(biāo)準(zhǔn)

L 1 L_1 L1? error、PSNR、SSIM、FID

然后就是定性實(shí)驗(yàn)、定量實(shí)驗(yàn)、User Study,結(jié)果肯定都優(yōu)于其他,就不總結(jié)了,細(xì)節(jié)看論文。

消融實(shí)驗(yàn)

驗(yàn)證AOT-GAN中三種組成要素的有效性 :gated contextual transformations(選通上下文轉(zhuǎn)換)、gated residual connections(選通殘余連接)、SM-PatchGAN discriminator(SM PatchGAN鑒別器)。

【圖像修復(fù)】AOT-GAN《Aggregated Contextual Transformations for High-Resolution Image Inpainting》


結(jié)論

局限性

(1)AOT塊的分支數(shù)和擴(kuò)張率是根據(jù)經(jīng)驗(yàn)性的研究和設(shè)置,當(dāng)圖像大小改變時(shí),可能就要重新去設(shè)置參數(shù),無法自適應(yīng)。

(2)在實(shí)際應(yīng)用(如logo移除)中很難自動分割logo的區(qū)域。文章來源地址http://www.zghlxwxcb.cn/news/detail-404188.html

到了這里,關(guān)于【圖像修復(fù)】AOT-GAN《Aggregated Contextual Transformations for High-Resolution Image Inpainting》的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • GAN在圖像超分辨領(lǐng)域的應(yīng)用

    GAN在圖像超分辨領(lǐng)域的應(yīng)用

    ????????本篇博客介紹了對抗生成網(wǎng)絡(luò)GAN在圖像超分辨領(lǐng)域的應(yīng)用,包括(SRGAN, ESRGAN, BSRGAN, Real-ESRGAN),詳細(xì)介紹了論文內(nèi)容,方法,網(wǎng)絡(luò)結(jié)構(gòu)并對其做了相關(guān)總結(jié)。相關(guān)GAN原理的介紹大家可以查看我之前的幾篇博客,鏈接如下: 生成對抗網(wǎng)絡(luò)-GAN https://blog.csdn.net/xs1997/artic

    2024年02月16日
    瀏覽(14)
  • 基于GAN的圖像補(bǔ)全實(shí)戰(zhàn)

    基于GAN的圖像補(bǔ)全實(shí)戰(zhàn)

    數(shù)據(jù)與代碼地址見文末 論文地址:http://iizuka.cs.tsukuba.ac.jp/projects/completion/data/completion_sig2017.pdf ? ????????圖像補(bǔ)全,即補(bǔ)全圖像中的覆蓋和缺失部分, 網(wǎng)絡(luò)整體結(jié)構(gòu)如下圖所示,整體網(wǎng)絡(luò)結(jié)構(gòu)還是采取GAN,對于生成器,網(wǎng)絡(luò)結(jié)構(gòu)采取Unet的形式,首先使用卷積進(jìn)行特征提

    2024年04月17日
    瀏覽(18)
  • 【人工智能圖像補(bǔ)全復(fù)現(xiàn)】基于GAN的圖像補(bǔ)全

    【人工智能圖像補(bǔ)全復(fù)現(xiàn)】基于GAN的圖像補(bǔ)全

    本文解析和實(shí)現(xiàn)論文Globally and Locally Consistent Image Completion中的相關(guān)方法。論文亮點(diǎn)在于使用全局(整張圖片)和局部(缺失補(bǔ)全部分)兩種鑒別器來訓(xùn)練,并運(yùn)用GAN使生成圖像在各個(gè)尺度的特征與真實(shí)圖像匹配。 :GAN;圖像補(bǔ)全;多種鑒別器訓(xùn)練 文章來源:SIGGRAPH 2

    2024年04月24日
    瀏覽(31)
  • 生成對抗網(wǎng)絡(luò)GAN簡介- 圖像處理應(yīng)用

    GAN是一種由兩部分組成的神經(jīng)網(wǎng)絡(luò)架構(gòu),通常用于生成逼真的圖像。這兩部分是生成器(Generator)和判別器(Discriminator)。 生成器(Generator) :它的目標(biāo)是創(chuàng)建逼真的圖像。這些圖像是從隨機(jī)噪聲開始生成的,生成器試圖使其盡可能接近真實(shí)數(shù)據(jù)分布。 判別器(Discriminat

    2024年01月18日
    瀏覽(22)
  • 基于GAN(生成對抗網(wǎng)絡(luò))生成動漫人物圖像

    基于GAN(生成對抗網(wǎng)絡(luò))生成動漫人物圖像

    大家好,我是阿光。 本專欄整理了《PyTorch深度學(xué)習(xí)項(xiàng)目實(shí)戰(zhàn)100例》,內(nèi)包含了各種不同的深度學(xué)習(xí)項(xiàng)目,包含項(xiàng)目原理以及源碼,每一個(gè)項(xiàng)目實(shí)例都附帶有完整的代碼+數(shù)據(jù)集。 正在更新中~ ? ?? 我的項(xiàng)目環(huán)境: 平臺:Windows10 語言環(huán)境:python3.7 編譯器:PyCharm PyTorch版本:

    2024年02月10日
    瀏覽(19)
  • 【計(jì)算機(jī)視覺|生成對抗】用于高保真自然圖像合成的大規(guī)模GAN訓(xùn)練用于高保真自然圖像合成的大規(guī)模GAN訓(xùn)練(BigGAN)

    【計(jì)算機(jī)視覺|生成對抗】用于高保真自然圖像合成的大規(guī)模GAN訓(xùn)練用于高保真自然圖像合成的大規(guī)模GAN訓(xùn)練(BigGAN)

    本系列博文為深度學(xué)習(xí)/計(jì)算機(jī)視覺論文筆記,轉(zhuǎn)載請注明出處 標(biāo)題: Large Scale GAN Training for High Fidelity Natural Image Synthesis 鏈接:[1809.11096] Large Scale GAN Training for High Fidelity Natural Image Synthesis (arxiv.org) 盡管在生成圖像建模方面取得了近期的進(jìn)展,但成功地從諸如ImageNet之類的復(fù)

    2024年02月11日
    瀏覽(26)
  • 深度生成模型之圖像翻譯GAN ->(個(gè)人學(xué)習(xí)記錄筆記)

    深度生成模型之圖像翻譯GAN ->(個(gè)人學(xué)習(xí)記錄筆記)

    1. 風(fēng)格遷移 各類風(fēng)格化應(yīng)用 2. 數(shù)據(jù)增強(qiáng) 仿真數(shù)據(jù),增強(qiáng)數(shù)據(jù)的多樣性 3. 經(jīng)典圖像任務(wù) 圖像上色,圖像分割,邊緣檢測,圖像增強(qiáng),超分辨,圖像修復(fù)等 4. 內(nèi)容創(chuàng)作 交互式圖像生成,圖像編輯 5. 人臉圖像編輯 人臉表情,年齡,妝容,身份編輯,動漫風(fēng)格化等 6. 人體圖像編

    2024年02月03日
    瀏覽(21)
  • 【計(jì)算機(jī)視覺|生成對抗】用于高保真自然圖像合成的大規(guī)模GAN訓(xùn)練(BigGAN)用于高保真自然圖像合成的大規(guī)模GAN訓(xùn)練(BigGAN)

    【計(jì)算機(jī)視覺|生成對抗】用于高保真自然圖像合成的大規(guī)模GAN訓(xùn)練(BigGAN)用于高保真自然圖像合成的大規(guī)模GAN訓(xùn)練(BigGAN)

    本系列博文為深度學(xué)習(xí)/計(jì)算機(jī)視覺論文筆記,轉(zhuǎn)載請注明出處 標(biāo)題: Large Scale GAN Training for High Fidelity Natural Image Synthesis 鏈接:[1809.11096] Large Scale GAN Training for High Fidelity Natural Image Synthesis (arxiv.org) 盡管在生成圖像建模方面取得了近期的進(jìn)展,但成功地從諸如ImageNet之類的復(fù)

    2024年02月11日
    瀏覽(26)
  • 對抗生成網(wǎng)絡(luò)GAN系列——DCGAN簡介及人臉圖像生成案例

    對抗生成網(wǎng)絡(luò)GAN系列——DCGAN簡介及人臉圖像生成案例

    ??作者簡介:禿頭小蘇,致力于用最通俗的語言描述問題 ??往期回顧:對抗生成網(wǎng)絡(luò)GAN系列——GAN原理及手寫數(shù)字生成小案例 ??近期目標(biāo):寫好專欄的每一篇文章 ??支持小蘇:點(diǎn)贊????、收藏?、留言?? 本節(jié)已錄制視頻:DCGAN簡介及人臉圖像生成案例?????? ???

    2024年01月16日
    瀏覽(76)
  • 【計(jì)算機(jī)視覺中的 GAN 】 - 條件圖像合成和 3D 對象生成(2)

    ????????上文 ?【計(jì)算機(jī)視覺中的 GAN 】 或多或少是GANs,生成學(xué)習(xí)和計(jì)算機(jī)視覺的介紹。我們達(dá)到了在 128x128 圖像中生成可區(qū)分圖像特征的程度。但是,如果你真的想了解GAN在計(jì)算機(jī)視覺方面的進(jìn)展,你肯定必須深入研究圖像到圖像的翻譯。盡管這是第一個(gè)成功的模型,

    2024年02月15日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包