国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

這篇具有很好參考價值的文章主要介紹了GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

GRAF: Generative Radiance Fields?for 3D-Aware Image Synthesis

Abstract

雖然二維生成對抗網(wǎng)絡(luò)能夠?qū)崿F(xiàn)高分辨率的圖像合成,它們在很大程度上缺乏對三維世界和圖像形成過程的理解。因此,它們不能提供對相機(jī)視點或物體姿態(tài)的精確控制。為了解決這個問題,最近的幾種方法利用基于中間體素的表示可微渲染相結(jié)合。然而,現(xiàn)有的方法要么產(chǎn)生較低的圖像分辨率,要么在分離相機(jī)和場景屬性方面出現(xiàn)不足,例如,物體的身份可能隨視點而變化在本文中,我們提出了一個輻射場的生成模型,該模型最近被證明是成功地用于單個場景的新視圖合成。基于體素的表示相比,輻射場并不局限于三維空間的粗糙離散化,但允許解開攝像機(jī)和場景屬性,同時在存在重建模糊性的情況下優(yōu)雅地退化。通過引入一個多尺度的基于補(bǔ)丁的鑒別器,我們演示了高分辨率圖像的合成,同時僅從未曝光的二維圖像訓(xùn)練我們的模型。我們系統(tǒng)地分析了我們的方法在幾個具有挑戰(zhàn)性的合成和真實世界的數(shù)據(jù)集。我們的實驗表明,輻射場是生成圖像合成的一個強(qiáng)大的表示,導(dǎo)致三維一致的模型渲染高保真。

3 Method

我們考慮了三維感知圖像合成的問題,生成高保真圖像的任務(wù),同時提供對相機(jī)旋轉(zhuǎn)和平移的顯式控制。我們主張用它的輻射場來表示一個場景,這樣一個連續(xù)的表示尺度很好。圖像分辨率和內(nèi)存消耗,同時允許基于物理和無參數(shù)的投影映射。在下面,我們首先簡要回顧了神經(jīng)輻射場(NeRF)[36],它構(gòu)成了所提出的生成輻射場(GRAF)模型的基礎(chǔ)。

3.1 Neural Radiance Fields

3.2 Generative Radiance Fields

在這項工作中,我們感興趣的是輻射場作為三維感知圖像合成表示。與[36]相比,我們不假設(shè)單個場景有大量的擺姿勢的圖像。相反,我們的目標(biāo)是學(xué)習(xí)一個模型,通過未曝光圖像的訓(xùn)練來合成新的場景。更具體地說,我們利用一個對抗性框架來訓(xùn)練輻射場的生成模型(GRAF)。

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

?

圖2顯示了對我們的模型的概述。生成器Gθ相機(jī)矩陣K、相機(jī)姿態(tài)ξ、二維采樣模式ν形狀/外觀代碼zs∈Rm/za∈Rn作為輸入,并預(yù)測圖像補(bǔ)丁P。鑒別器Dφ合成的補(bǔ)丁P與從真實圖像i提取的補(bǔ)丁P進(jìn)行比較。在推斷時,我們預(yù)測每個圖像像素的一個顏色值。然而,在訓(xùn)練時,這是太貴了。因此,我們預(yù)測一個固定大小的K×K像素的補(bǔ)丁,它被隨機(jī)縮放和旋轉(zhuǎn),以為整個輻射場提供梯度。

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

?

3.2.1 Generator

我們從姿態(tài)分布pξ中采樣相機(jī)姿態(tài)ξ=[R|t]。在我們的實驗中,我們使用在上半球均勻分布的相機(jī)位置,相機(jī)面向坐標(biāo)系的原點。根據(jù)數(shù)據(jù)集的不同,我們也會均勻地改變相機(jī)到原點的距離。我們選擇K,使主點在圖像的中心。

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

?

ν=(u,s)決定了我們要生成的虛擬K×K補(bǔ)丁P(u,s)的中心u=(u,v)∈R2和尺度s∈R+。這使我們能夠使用一個獨(dú)立于圖像分辨率的卷積鑒別器。我們從圖像域Ω的均勻分布中隨機(jī)抽取補(bǔ)丁中心u~U(Ω),從均勻分布的s~U([1,S])中隨機(jī)抽取補(bǔ)丁尺寸s,其中S=min(W,H)/K,W和H表示目標(biāo)圖像的寬度和高度。此外,我們確保整個補(bǔ)丁都在圖像域Ω內(nèi)。形狀和外觀變量zsza分別來自形狀和外觀分布zspszaps繪制。在我們的實驗中,我們對ps和pa都使用了一個標(biāo)準(zhǔn)的高斯分布。

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

?

它描述了patch在圖像域Ω中的每個像素的位置,如圖3所示。請注意,這些坐標(biāo)是實數(shù),而不是離散的整數(shù),這允許我們連續(xù)地計算輻射場。相應(yīng)的3D射線P(u,s)、相機(jī)姿態(tài)ξ內(nèi)在K唯一確定。我們用r表示像素/射線索引,用dr表示歸一化的三維射線射線數(shù)R表示,其中在訓(xùn)練中R=K2,在推理中R=WH

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

?

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

?

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

?

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

?

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

?

條件輻射場gθ的網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。我們首先從x的位置編碼形狀編碼zs中計算一個形狀編碼h。密度頭σθ將該編碼轉(zhuǎn)換為體積密度σ。為了預(yù)測3D位置x處的顏色c,我們將h與d的位置編碼和外觀代碼za連接起來,并將得到的向量傳遞給一個顏色頭cθ。我們獨(dú)立于視點d和外觀代碼za來計算σ,以鼓勵多視圖的一致性,同時分離形狀和外觀。這鼓勵網(wǎng)絡(luò)分別使用潛在代碼zs和za來建模形狀和外觀,并允許在推理過程中分別操作它們。更正式地說,我們有:

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

?

所有的映射(hθ、cθ和σθ)都是使用具有ReLU激活的全連接網(wǎng)絡(luò)來實現(xiàn)的。為了避免符號混亂,我們使用相同的符號θ來表示每個網(wǎng)絡(luò)的參數(shù)。

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

?

給定沿射線r的所有點的顏色和體積密度{(cir,σir)},我們使用等式?(3).中的體積渲染操作符得到射線r對應(yīng)像素的顏色cr∈R3結(jié)合所有R射線的結(jié)果,我們將預(yù)測的斑片表示為p,如圖2所示。

3.2.2 Discriminator

GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

?

鑒別器Dφ是實現(xiàn)為一個卷積神經(jīng)網(wǎng)絡(luò)(見附件)將預(yù)測的補(bǔ)丁P與從數(shù)據(jù)分布pD中提取的真實圖像I中提取的補(bǔ)丁P進(jìn)行比較。為了從真實圖像I中提取一個K×K補(bǔ)丁,我們首先從我們在上面用于繪制生成器補(bǔ)丁的相同的分布pν中繪制ν=(u,s)。然后,我們通過使用雙線性插值法在二維圖像坐標(biāo)P(u,s)處查詢I,對真實的patch?P進(jìn)行采樣。下面,我們使用Γ(I,ν)來表示這種雙線性采樣操作。請注意,我們的鑒別器類似于PatchGAN[21],除了我們允許連續(xù)位移u和縮放s,而PatchGAN使用s=1。更重要的是,我們并不是基于s對真實圖像I進(jìn)行降采樣,而是在稀疏位置查詢I,以保留高頻細(xì)節(jié),見圖3。

在實驗中,我們發(fā)現(xiàn)一個具有共享權(quán)重的鑒別器對所有的補(bǔ)丁都是足夠的,即使這些補(bǔ)丁是在不同尺度的隨機(jī)位置采樣的。請注意,比例尺決定了補(bǔ)丁的接受域。為了便于訓(xùn)練,我們首先從更大的接受域開始,以捕捉全局環(huán)境。然后,我們逐步采樣具有較小的接受域的補(bǔ)丁,以細(xì)化局部細(xì)節(jié)。

3.2.3 Training and Inference GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis

?

我們在我們的鑒別器中使用光譜歸一化[37]和實例歸一化[65],并使用RMSprop[27]訓(xùn)練我們的方法,生成器和鑒別器的學(xué)習(xí)率分別為0.0005和0.0001。在推理時,我們隨機(jī)抽取zs、za和ξ,并預(yù)測圖像中所有像素的顏色值。關(guān)于網(wǎng)絡(luò)架構(gòu)的詳細(xì)信息可以在附件中找到。

5 Conclusion

我們引入了生成輻射場(GRAF)用于高分辨率三維感知圖像合成。我們證明,與基于體素的方法相比,我們的框架能夠生成具有更好的多視圖一致性的高分辨率圖像。然而,我們的研究結(jié)果僅限于具有單個對象的簡單場景。我們相信,結(jié)合歸納偏差,例如,深度圖或?qū)ΨQ性,將允許將我們的模型擴(kuò)展到未來更具挑戰(zhàn)性的現(xiàn)實世界場景。文章來源地址http://www.zghlxwxcb.cn/news/detail-415895.html

到了這里,關(guān)于GRAF: Generative Radiance Fields for 3D-Aware Image Synthesis的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • [CVPR‘22] EG3D: Efficient Geometry-aware 3D Generative Adversarial Networks

    [CVPR‘22] EG3D: Efficient Geometry-aware 3D Generative Adversarial Networks

    paper:?https://nvlabs.github.io/eg3d/media/eg3d.pdf project:?EG3D: Efficient Geometry-aware 3D GANs code:?GitHub - NVlabs/eg3d 總結(jié) : 本文提出一種hybrid explicit-implicit 3D representation: tri-plane hybrid 3D representation,該方法不僅有更強(qiáng)的表達(dá)能力,速度更快,內(nèi)存開銷更小。 同時,為解決多視角不一致問題,

    2023年04月27日
    瀏覽(28)
  • EG3D: Efficient Geometry-aware 3D Generative Adversarial Networks [2022 CVPR]

    EG3D: Efficient Geometry-aware 3D Generative Adversarial Networks [2022 CVPR]

    長期以來,僅使用單視角二維照片集無監(jiān)督生成高質(zhì)量多視角一致圖像和三維形狀一直是一項挑戰(zhàn)。現(xiàn)有的三維 GAN 要么計算密集,要么做出的近似值與三維不一致;前者限制了生成圖像的質(zhì)量和分辨率,后者則對多視角一致性和形狀質(zhì)量產(chǎn)生不利影響。 在這項工作中,我們

    2024年02月11日
    瀏覽(20)
  • Curricular Contrastive Regularization for Physics-aware Single Image Dehazing

    Curricular Contrastive Regularization for Physics-aware Single Image Dehazing

    提出了一種新的對比正則化方法,旨在解決現(xiàn)有方法中存在的問題。傳統(tǒng)方法中使用的負(fù)樣本通常與清晰的正樣本圖像相距較遠(yuǎn),導(dǎo)致解空間受限。為了改進(jìn)這一點,提出了一種新的對比正則化方法,利用了更接近正樣本的負(fù)樣本信息,這些負(fù)樣本包括原始有霧圖像以及其他

    2024年04月28日
    瀏覽(21)
  • 論文閱讀——MAT: Mask-Aware Transformer for Large Hole Image Inpainting

    論文閱讀——MAT: Mask-Aware Transformer for Large Hole Image Inpainting

    原文鏈接: 2022 CVPR 2022 MAT: Mask-Aware Transformer for Large Hole Image Inpainting? [pdf] ? [code] 本文創(chuàng)新點: 開發(fā)了一種新穎的修復(fù)框架 MAT,是第一個能夠直接處理高分辨率圖像的基于 transformer 的修復(fù)系統(tǒng)。 提出了一種新的多頭自注意力 (MSA) 變體,稱為多頭上下文注意力 (MCA),只使用

    2024年02月08日
    瀏覽(23)
  • 【深度學(xué)習(xí)】MAT: Mask-Aware Transformer for Large Hole Image Inpainting

    【深度學(xué)習(xí)】MAT: Mask-Aware Transformer for Large Hole Image Inpainting

    論文:https://arxiv.org/abs/2203.15270 代碼:https://github.com/fenglinglwb/MAT Generator 參數(shù)統(tǒng)計: Discriminator參數(shù)統(tǒng)計,用了VGG16. 最近的研究表明,在修復(fù)圖像中存在長距離相互作用的建模非常重要。為了實現(xiàn)這個目標(biāo),現(xiàn)有的方法利用獨(dú)立的注意力技術(shù)或transformers,但通??紤]到計算成

    2024年02月14日
    瀏覽(17)
  • Curricular Contrastive Regularization for Physics-aware Single Image Dehazing (CVPR2023) 論文記錄

    Curricular Contrastive Regularization for Physics-aware Single Image Dehazing (CVPR2023) 論文記錄

    原文鏈接:https://openaccess.thecvf.com/content/CVPR2023/papers/Zheng_Curricular_Contrastive_Regularization_for_Physics-Aware_Single_Image_Dehazing_CVPR_2023_paper.pdf 在單幅圖像去霧領(lǐng)域,考慮到圖像去霧問題的不適定性,Wu 1 提出了對比正則化方法,將負(fù)樣本圖像的信息引入作為下界。(本文主要是基于該方

    2024年02月16日
    瀏覽(25)
  • Generative Diffusion Prior for Unified Image Restoration and Enhancement 論文閱讀筆記

    Generative Diffusion Prior for Unified Image Restoration and Enhancement 論文閱讀筆記

    這是CVPR2023的一篇用diffusion先驗做圖像修復(fù)和圖像增強(qiáng)的論文 之前有一篇工作做了diffusion先驗(Bahjat Kawar, Michael Elad, Stefano Ermon, and Jiaming Song, “Denoising diffusion restoration models,” arXiv preprint arXiv:2201.11793, 2022. 2, 4, 6, 7),但這個模型只能做線性的退化,對于暗圖增強(qiáng)這種非線性

    2024年02月15日
    瀏覽(27)
  • 一文搞懂 神經(jīng)輻射場(Neural Radiance Fields,NeRF)

    神經(jīng)輻射場(Neural Radiance Fields,簡稱NeRF)是一種計算機(jī)視覺技術(shù),用于生成高質(zhì)量的三維重建模型。它利用深度學(xué)習(xí)技術(shù)從多個視角的圖像中提取出對象的幾何形狀和紋理信息,然后使用這些信息生成一個連續(xù)的三維輻射場,從而可以在任意角度和距離下呈現(xiàn)出高度逼真的

    2024年02月06日
    瀏覽(20)
  • CVPR 2022 Image Dehazing Transformer with Transmission-Aware 3D Position Embedding 個人學(xué)習(xí)筆記

    CVPR 2022 Image Dehazing Transformer with Transmission-Aware 3D Position Embedding 個人學(xué)習(xí)筆記

    源碼下載: CVPR2022ImageDehazingTransformerwithTransmission-Aware3D代碼-深度學(xué)習(xí)文檔類資源-CSDN下載 Abstract 盡管卷積神經(jīng)網(wǎng)絡(luò)(CNNs)的單圖像去模糊已經(jīng)取得了良好的進(jìn)展,但卷積固有的 等方差 和 局部性 仍然是去霧性能的 瓶頸 。雖然 Transformer 占據(jù)了各種計算機(jī)視覺任務(wù),但直接利

    2023年04月08日
    瀏覽(21)
  • 論文閱讀:FusionGAN: A generative adversarial network for infrared and visible image fusion

    論文閱讀:FusionGAN: A generative adversarial network for infrared and visible image fusion

    @article{ma2019fusiongan, title={FusionGAN: A generative adversarial network for infrared and visible image fusion}, author={Ma, Jiayi and Yu, Wei and Liang, Pengwei and Li, Chang and Jiang, Junjun}, journal={Information fusion}, volume={48}, pages={11–26}, year={2019}, publisher={Elsevier} } [論文下載地址] Image fusion, infrared image, visible image

    2024年01月22日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包