2024 年 2 月,清華大學(xué)、華為和中科院聯(lián)合發(fā)布的 VastGaussian 模型,實現(xiàn)了基于 3D Gaussian Splatting 進行大型場景高保真重建和實時渲染。
Abstract
現(xiàn)有基于NeRF大型場景重建方法,往往在視覺質(zhì)量和渲染速度方面存在局限性。雖然最近?3D Gaussians Spltting 在小規(guī)模和以對象為中心的場景中效果很好,但由于視頻內(nèi)存有限、優(yōu)化時間長、外觀變化明顯,將其擴展到大型場景會帶來挑戰(zhàn)。為了應(yīng)對這些挑戰(zhàn),我們提出了 VastGaussian,這是第一個基于 3D Gaussians Spltting 大型場景高質(zhì)量重建和實時渲染方法。我們提出了一種漸進分割策略,將大型場景劃分為多個單元,其中訓(xùn)練相機和點云根據(jù)空域感知可見度標(biāo)準進行適當(dāng)分布。在并行優(yōu)化后,這些單元被合并為一個完整場景。我們還將解耦的外觀建模引入到優(yōu)化過程中,以減少渲染圖像外觀變化。我們的方法優(yōu)于現(xiàn)有的基于NeRF方法,并在多個大型場景數(shù)據(jù)集上實現(xiàn)了最先進性能,實現(xiàn)了快速優(yōu)化和高保真實時渲染。
Project page:https://vastgaussian.github.io.
Introduction
大型場景重建對于許多應(yīng)用程序來說是必不可少的,包括自動駕駛、航空測量和虛擬現(xiàn)實,這需要逼真的視覺質(zhì)量和實時渲染。Block-NeRF,Mega-NeRF,BungeeNeRF,Grid-NeRF,Switch-NeRF 等方法將神經(jīng)輻射場NeRF擴展到大規(guī)模場景,但它們?nèi)匀蝗狈毠?jié)或渲染緩慢。文章來源:http://www.zghlxwxcb.cn/news/detail-848834.html
3D Gaussian Splatting (3DGS) ,作為一種很有前景的文章來源地址http://www.zghlxwxcb.cn/news/detail-848834.html
到了這里,關(guān)于51-31 CVPR’24 | VastGaussian,3D高斯大型場景重建的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!