国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

51-31 CVPR’24 | VastGaussian,3D高斯大型場景重建

這篇具有很好參考價值的文章主要介紹了51-31 CVPR’24 | VastGaussian,3D高斯大型場景重建。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

2024 年 2 月,清華大學(xué)、華為和中科院聯(lián)合發(fā)布的 VastGaussian 模型,實現(xiàn)了基于 3D Gaussian Splatting 進行大型場景高保真重建和實時渲染。

Abstract

現(xiàn)有基于NeRF大型場景重建方法,往往在視覺質(zhì)量和渲染速度方面存在局限性。雖然最近?3D Gaussians Spltting 在小規(guī)模和以對象為中心的場景中效果很好,但由于視頻內(nèi)存有限、優(yōu)化時間長、外觀變化明顯,將其擴展到大型場景會帶來挑戰(zhàn)。為了應(yīng)對這些挑戰(zhàn),我們提出了 VastGaussian,這是第一個基于 3D Gaussians Spltting 大型場景高質(zhì)量重建和實時渲染方法。我們提出了一種漸進分割策略,將大型場景劃分為多個單元,其中訓(xùn)練相機和點云根據(jù)空域感知可見度標(biāo)準進行適當(dāng)分布。在并行優(yōu)化后,這些單元被合并為一個完整場景。我們還將解耦的外觀建模引入到優(yōu)化過程中,以減少渲染圖像外觀變化。我們的方法優(yōu)于現(xiàn)有的基于NeRF方法,并在多個大型場景數(shù)據(jù)集上實現(xiàn)了最先進性能,實現(xiàn)了快速優(yōu)化和高保真實時渲染。

Project page:https://vastgaussian.github.io.

Introduction

大型場景重建對于許多應(yīng)用程序來說是必不可少的,包括自動駕駛、航空測量和虛擬現(xiàn)實,這需要逼真的視覺質(zhì)量和實時渲染。Block-NeRF,Mega-NeRF,BungeeNeRF,Grid-NeRF,Switch-NeRF 等方法將神經(jīng)輻射場NeRF擴展到大規(guī)模場景,但它們?nèi)匀蝗狈毠?jié)或渲染緩慢。

3D Gaussian Splatting (3DGS) ,作為一種很有前景的文章來源地址http://www.zghlxwxcb.cn/news/detail-848834.html

到了這里,關(guān)于51-31 CVPR’24 | VastGaussian,3D高斯大型場景重建的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【CVPR 2023的AIGC應(yīng)用匯總(8)】3D相關(guān)(編輯/重建/生成) diffusion擴散/GAN生成對抗網(wǎng)絡(luò)方法...

    【CVPR 2023的AIGC應(yīng)用匯總(8)】3D相關(guān)(編輯/重建/生成) diffusion擴散/GAN生成對抗網(wǎng)絡(luò)方法...

    【CVPR 2023的AIGC應(yīng)用匯總(5)】語義布局可控生成,基于diffusion擴散/GAN生成對抗 【CVPR 2023的AIGC應(yīng)用匯總(4)】圖像恢復(fù),基于GAN生成對抗/diffusion擴散模型 【CVPR 2023的AIGC應(yīng)用匯總(3)】GAN改進/可控生成的方法10篇 【CVPR 2023的AIGC應(yīng)用匯總(2)】可控文生圖,基于diffusion擴散模型/G

    2024年02月10日
    瀏覽(45)
  • OpenCV實戰(zhàn)(25)——3D場景重建

    在《相機姿態(tài)估計》一節(jié)中,我們學(xué)習(xí)了如何在校準相機時恢復(fù)觀察 3D 場景的相機的位置。算法應(yīng)用了以下事實,即有時場景中可見的某些 3D 點的坐標(biāo)可能是已知的。而如果能夠從多個角度觀察場景,即使沒有關(guān)于 3D 場景的信息可用,也可以重建 3D 姿勢和結(jié)構(gòu)。在本節(jié)中,

    2024年02月07日
    瀏覽(24)
  • 論文解讀 | ScanNet:室內(nèi)場景的豐富注釋3D重建

    論文解讀 | ScanNet:室內(nèi)場景的豐富注釋3D重建

    原創(chuàng) | 文 BFT機器人? 大型的、有標(biāo)記的數(shù)據(jù)集的可用性是為了利用做有監(jiān)督的深度學(xué)習(xí)方法的一個關(guān)鍵要求。但是在RGB-D場景理解的背景下,可用的數(shù)據(jù)非常少,通常是當(dāng)前的數(shù)據(jù)集覆蓋了一小范圍的場景視圖,并且具有有限的語義注釋。 為了解決這個問題,本文介紹了一個

    2024年02月11日
    瀏覽(23)
  • 如何實現(xiàn)基于圖像與激光雷達的 3d 場景重建?

    智影S100是一款基于圖像和激光點云融合建模技術(shù)的 高精度輕巧手持SLAM三維激光掃描儀。 設(shè)備機身小巧、手持輕便,可快速采集點云數(shù)據(jù);支持實時解算、實時預(yù)覽點云成果,大幅提高內(nèi)外業(yè)工作效率;同時支持一鍵生成實景三維Mesh模型,實現(xiàn)城市建筑、堆體、室內(nèi)空間等

    2024年02月21日
    瀏覽(23)
  • CVPR23 | 可編輯3D場景布局的文本引導(dǎo)多對象合成NeRF

    CVPR23 | 可編輯3D場景布局的文本引導(dǎo)多對象合成NeRF

    來源:投稿 作者:橡皮 編輯:學(xué)姐 論文鏈接:https://arxiv.org/abs/2303.13843 最近,文本到圖像生成通過將視覺-語言預(yù)訓(xùn)練模型與擴散模型相結(jié)合,取得了巨大的成功。這些突破也使得強大的視覺-語言預(yù)訓(xùn)練模型在文本生成三維內(nèi)容中產(chǎn)生了深遠的影響。最近,幾種文本生成3

    2024年02月09日
    瀏覽(21)
  • 3d場景重建&圖像渲染 | 神經(jīng)輻射場NeRF(Neural Radiance Fields)

    3d場景重建&圖像渲染 | 神經(jīng)輻射場NeRF(Neural Radiance Fields)

    ?????NeRF(Neural Radiance Fields,神經(jīng)輻射場)是一種用于 3D場景重建和圖像渲染 的深度學(xué)習(xí)方法。它由Ben Mildenhall等人在2020年的論文《NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis》中首次提出。NeRF通過學(xué)習(xí)場景的連續(xù)體積密度和顏色分布, 能夠從任意視角準確地渲

    2024年03月17日
    瀏覽(24)
  • DUSt3R-從任意圖像集合中重建3D場景的框架

    DUSt3R-從任意圖像集合中重建3D場景的框架

    DUSt3R是什么 DUSt3R(Dense and Unconstrained Stereo 3D Reconstruction,密集無約束立體三維重建)是由來自芬蘭阿爾托大學(xué)和Naver歐洲實驗室的研究人員推出的一個3D重建框架,旨在簡化從任意圖像集合中重建三維場景的過程,而無需事先了解相機校準或視點位置的信息。該方法將成對重建問

    2024年03月10日
    瀏覽(20)
  • 【論文閱讀】PSDF Fusion:用于動態(tài) 3D 數(shù)據(jù)融合和場景重建的概率符號距離函數(shù)

    【論文閱讀】PSDF Fusion:用于動態(tài) 3D 數(shù)據(jù)融合和場景重建的概率符號距離函數(shù)

    PSDF Fusion: Probabilistic Signed Distance Function for On-the-fly 3D Data Fusion and Scene Reconstruction We propose a novel 3D spatial representation for data fusion and scene reconstruction. Probabilistic Signed Distance Function (Probabilistic SDF, PSDF) is proposed to depict uncertainties in the 3D space. It is modeled by a joint distribution describing

    2024年02月03日
    瀏覽(89)
  • (DTU數(shù)據(jù)集、Tanks and Temples 數(shù)據(jù)集、ETH3D 數(shù)據(jù)集、BlendedMVS數(shù)據(jù)集 ) 深度學(xué)習(xí)三維重建MVS論文中最受歡迎的大型數(shù)據(jù)集

    (DTU數(shù)據(jù)集、Tanks and Temples 數(shù)據(jù)集、ETH3D 數(shù)據(jù)集、BlendedMVS數(shù)據(jù)集 ) 深度學(xué)習(xí)三維重建MVS論文中最受歡迎的大型數(shù)據(jù)集

    近幾年,在MVS類論文中使用最為廣泛的大型數(shù)據(jù)集分別是DTU數(shù)據(jù)集、Tanks and Temples 數(shù)據(jù)集、ETH3D 數(shù)據(jù)集 、數(shù)據(jù)集。 對于基于學(xué)習(xí)的MVS訓(xùn)練,深度圖是必不可少的,而評估是基于點云的。對基于平面掃描的多視圖立體視覺技術(shù)的深度學(xué)習(xí)中,如果一個數(shù)據(jù)集不包含地面真實攝

    2024年02月05日
    瀏覽(27)
  • HumanNeRF(CVPR2022 oral)-人體重建論文閱讀

    HumanNeRF(CVPR2022 oral)-人體重建論文閱讀

    論文: 《HumanNeRF: Free-viewpoint Rendering of Moving People from Monocular Video》 github: https://github.com/chungyiweng/humannerf 作者提出HumanNeRF,給出復(fù)雜動作人體單視角視頻,暫停任一幀渲染出任意視角下該人體,甚至360度視角下該人體; HumanNeRF優(yōu)化了人在標(biāo)準T姿勢下的表征,與運動場相一致,

    2024年02月15日
    瀏覽(641)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包