国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文解讀 | ScanNet:室內(nèi)場(chǎng)景的豐富注釋3D重建

這篇具有很好參考價(jià)值的文章主要介紹了論文解讀 | ScanNet:室內(nèi)場(chǎng)景的豐富注釋3D重建。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

原創(chuàng) | 文 BFT機(jī)器人?

論文解讀 | ScanNet:室內(nèi)場(chǎng)景的豐富注釋3D重建,3d

大型的、有標(biāo)記的數(shù)據(jù)集的可用性是為了利用做有監(jiān)督的深度學(xué)習(xí)方法的一個(gè)關(guān)鍵要求。但是在RGB-D場(chǎng)景理解的背景下,可用的數(shù)據(jù)非常少,通常是當(dāng)前的數(shù)據(jù)集覆蓋了一小范圍的場(chǎng)景視圖,并且具有有限的語(yǔ)義注釋。

為了解決這個(gè)問(wèn)題,本文介紹了一個(gè)ScanNet的大規(guī)模室內(nèi)場(chǎng)景3D重建和語(yǔ)義分割數(shù)據(jù)集。該數(shù)據(jù)集包含1513個(gè)室內(nèi)場(chǎng)景的2.5M視角,具有3D相機(jī)姿態(tài)、表面重建和語(yǔ)義分割的注釋。并且為了收集這些數(shù)據(jù),設(shè)計(jì)了一個(gè)易于使用和可伸縮的RGB-D捕獲系統(tǒng),其中包括自動(dòng)表面重建和眾包語(yǔ)義注釋。實(shí)驗(yàn)結(jié)果表明使用這些數(shù)據(jù)有助于在幾個(gè)三維場(chǎng)景理解任務(wù)上實(shí)現(xiàn)最先進(jìn)的性能,表現(xiàn)在三維對(duì)象分類、語(yǔ)義體素標(biāo)記和CAD模型檢索幾個(gè)方面。

背景

BACKDROP

隨著RGB-D傳感器的引入以來(lái),3D幾何捕獲領(lǐng)域獲得了廣泛的關(guān)注,并開辟了廣泛的新應(yīng)用。在三維重建算法上已經(jīng)有了大量的努力,但利用RGB-D數(shù)據(jù)進(jìn)行的一般三維場(chǎng)景理解最近才開始流行起來(lái)。隨著現(xiàn)代機(jī)器學(xué)習(xí)方法的快速發(fā)展,如神經(jīng)網(wǎng)絡(luò)模型,也大大促進(jìn)了對(duì)語(yǔ)義理解的研究。

本文建立了一個(gè)來(lái)幫助初學(xué)者獲得語(yǔ)義標(biāo)記的場(chǎng)景3D模型。人們使用安裝有深度攝像頭的iPad上的一個(gè)應(yīng)用程序來(lái)獲取RGB-D視頻,然后后臺(tái)離線處理數(shù)據(jù),并返回一個(gè)完整的語(yǔ)義標(biāo)記的場(chǎng)景3D重建。確實(shí)開發(fā)這樣一個(gè)框架的挑戰(zhàn)是眾多的,包括如何穩(wěn)健地執(zhí)行三維表面重建,以及如何眾包語(yǔ)義標(biāo)記。對(duì)這些問(wèn)題的研究,并記錄了在擴(kuò)大RGB-D掃描收集(20人)和注釋(500名人群工作者)方面的經(jīng)驗(yàn)。

論文解讀 | ScanNet:室內(nèi)場(chǎng)景的豐富注釋3D重建,3d

研究

STUDY

RGB-D重建和語(yǔ)義注釋框架的概述。左圖:一個(gè)新手用戶使用一個(gè)手持RGB-D設(shè)備與我們的掃描界面來(lái)掃描一個(gè)環(huán)境。中間:RGB-D序列被上傳到一個(gè)處理服務(wù)器,該服務(wù)器生成三維表面網(wǎng)格重建及其表面分割。右圖為發(fā)布語(yǔ)義注釋任務(wù)進(jìn)行眾包,獲得實(shí)例級(jí)對(duì)象類別注釋和三維CAD模型對(duì)齊重建。使用ScanNet提供的數(shù)據(jù)對(duì)三維深度網(wǎng)絡(luò)進(jìn)行了訓(xùn)練,并測(cè)試了它們?cè)趲讉€(gè)場(chǎng)景理解任務(wù)上的性能,包括三維對(duì)象分類、語(yǔ)義體素標(biāo)記和CAD模型檢索。對(duì)于語(yǔ)義體素標(biāo)記任務(wù),本文引入了一種新的體積CNN架構(gòu)。

論文解讀 | ScanNet:室內(nèi)場(chǎng)景的豐富注釋3D重建,3d

在校準(zhǔn)時(shí),本文使用RGB-D傳感器需要解除深度數(shù)據(jù)的扭曲和深度和顏色數(shù)據(jù)的對(duì)齊。先前的研究工作主要集中在具有更精確設(shè)備的控制實(shí)驗(yàn)室條件上,以告知商品傳感器的校準(zhǔn)。然而這對(duì)于新手用戶來(lái)說(shuō)是不實(shí)用的。因此,用戶只需要打印出一個(gè)棋盤圖案,將它放在一個(gè)大的、平坦的表面上,并捕獲一個(gè)從近距離觀察表面的RGB-D序列。這個(gè)序列,以及一組查看棋盤格的紅外線和彩色幀對(duì),由用戶上傳作為校準(zhǔn)的輸入,我們的系統(tǒng)運(yùn)行一個(gè)校準(zhǔn)程序,以獲得深度和顏色傳感器的內(nèi)在參數(shù),以及深度到顏色的外部轉(zhuǎn)換。

我們發(fā)現(xiàn),這種校準(zhǔn)程序易于用戶,結(jié)果改善數(shù)據(jù),從而提高重建質(zhì)量。本文研究選擇了捆綁融合(BundleFusion)系統(tǒng),因?yàn)樗窃O(shè)計(jì)和評(píng)估類似的傳感器設(shè)置,并提供實(shí)時(shí)速度,同時(shí)相當(dāng)穩(wěn)健的給定手持RGBD視頻數(shù)據(jù)。在驗(yàn)證過(guò)程時(shí)候,當(dāng)掃描上傳到處理服務(wù)器并在無(wú)監(jiān)督下運(yùn)行時(shí),將自動(dòng)觸發(fā)此重建過(guò)程。為了建立一個(gè)干凈的快照來(lái)構(gòu)建本文報(bào)道的ScanNet數(shù)據(jù)集,自動(dòng)丟棄了較短、殘差重建誤差高或?qū)R幀比例低的掃描序列。然后我們手動(dòng)檢查和丟棄有明顯失調(diào)的重建。

論文解讀 | ScanNet:室內(nèi)場(chǎng)景的豐富注釋3D重建,3d

結(jié)論

CONCLUSION

文中還討論了如何在可擴(kuò)展的流水線中進(jìn)行3D表面重建和如何進(jìn)行眾包語(yǔ)義標(biāo)注的問(wèn)題,并介紹了使用ScanNet數(shù)據(jù)進(jìn)行3D場(chǎng)景理解任務(wù)的最新技術(shù)和結(jié)果。文章中在可擴(kuò)展的流水線中使用一種新的體積卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),用于解決語(yǔ)義體素標(biāo)注任務(wù)。結(jié)果表明,使用ScanNet數(shù)據(jù)可以獲得比現(xiàn)有數(shù)據(jù)集更好的性能,這證明了ScanNet數(shù)據(jù)集的重要性和實(shí)用性,該數(shù)據(jù)集還包括紋理網(wǎng)格、密集的物體級(jí)別語(yǔ)義分割和對(duì)齊的CAD模型。3D模型是使用RGB-D捕捉系統(tǒng)重建的,其中包括自動(dòng)表面重建和眾包語(yǔ)義注釋。

語(yǔ)義分割比任何先前的RGB-D數(shù)據(jù)集都要大一個(gè)數(shù)量級(jí)。模型使用估計(jì)的校準(zhǔn)參數(shù)、相機(jī)姿態(tài)、3D表面重建、紋理網(wǎng)格、密集的物體級(jí)別語(yǔ)義分割和對(duì)齊的CAD模型進(jìn)行注釋。這使得ScanNet成為場(chǎng)景理解研究的寶貴資源。。此外還提供了新的RGB-D基準(zhǔn)和改進(jìn)的結(jié)果,這些結(jié)果可以用于3D對(duì)象分類、語(yǔ)義體素標(biāo)注和CAD模型檢索等場(chǎng)景理解任務(wù)。

作者 |?ZZY

排版?|?春花

審核?|?貓

若您對(duì)該文章內(nèi)容有任何疑問(wèn),請(qǐng)于我們聯(lián)系,將及時(shí)回應(yīng)。如果想要了解更多的前沿資訊,記得點(diǎn)贊關(guān)注哦~文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-678726.html

到了這里,關(guān)于論文解讀 | ScanNet:室內(nèi)場(chǎng)景的豐富注釋3D重建的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • web 3d場(chǎng)景構(gòu)建+three.js+室內(nèi)圍墻,倉(cāng)庫(kù),樓梯,貨架模型等,第一人稱進(jìn)入場(chǎng)景案例

    web 3d場(chǎng)景構(gòu)建+three.js+室內(nèi)圍墻,倉(cāng)庫(kù),樓梯,貨架模型等,第一人稱進(jìn)入場(chǎng)景案例

    ? 翻到了之前的一個(gè)案例,基于three.js做的倉(cāng)庫(kù)布局模擬,地圖元素除了大模型外,其他都是通過(guò)JSON數(shù)據(jù)解析動(dòng)態(tài)生成的,例如墻體,柱子門口,地標(biāo)等,集成了第一人稱的插件可以第一人稱進(jìn)入場(chǎng)景有需要的可以下載看看,對(duì)想入門的朋友應(yīng)該有一些參考價(jià)值。 /** ? ?*創(chuàng)

    2024年02月10日
    瀏覽(21)
  • OpenCV實(shí)戰(zhàn)(25)——3D場(chǎng)景重建

    在《相機(jī)姿態(tài)估計(jì)》一節(jié)中,我們學(xué)習(xí)了如何在校準(zhǔn)相機(jī)時(shí)恢復(fù)觀察 3D 場(chǎng)景的相機(jī)的位置。算法應(yīng)用了以下事實(shí),即有時(shí)場(chǎng)景中可見的某些 3D 點(diǎn)的坐標(biāo)可能是已知的。而如果能夠從多個(gè)角度觀察場(chǎng)景,即使沒(méi)有關(guān)于 3D 場(chǎng)景的信息可用,也可以重建 3D 姿勢(shì)和結(jié)構(gòu)。在本節(jié)中,

    2024年02月07日
    瀏覽(24)
  • 三維重建——商湯NeuralRecon算法詳解與論文解讀

    三維重建——商湯NeuralRecon算法詳解與論文解讀

    論文地址:https://arxiv.org/abs/2104.00681 代碼鏈接見文末 代碼詳解: https://blog.csdn.net/qq_52053775/article/details/128880856 ? ? ? ? 三維重建,就是將2D的圖片信息重建為3D的信息。應(yīng)用領(lǐng)域廣泛??梢詰?yīng)用于原型設(shè)計(jì)、虛擬現(xiàn)實(shí)等。 (1) 相機(jī)成像 ? ? ? ? 相機(jī)成像一般是小孔成像的原

    2024年02月13日
    瀏覽(28)
  • 如何實(shí)現(xiàn)基于圖像與激光雷達(dá)的 3d 場(chǎng)景重建?

    智影S100是一款基于圖像和激光點(diǎn)云融合建模技術(shù)的 高精度輕巧手持SLAM三維激光掃描儀。 設(shè)備機(jī)身小巧、手持輕便,可快速采集點(diǎn)云數(shù)據(jù);支持實(shí)時(shí)解算、實(shí)時(shí)預(yù)覽點(diǎn)云成果,大幅提高內(nèi)外業(yè)工作效率;同時(shí)支持一鍵生成實(shí)景三維Mesh模型,實(shí)現(xiàn)城市建筑、堆體、室內(nèi)空間等

    2024年02月21日
    瀏覽(23)
  • 51-31 CVPR’24 | VastGaussian,3D高斯大型場(chǎng)景重建

    2024 年 2 月,清華大學(xué)、華為和中科院聯(lián)合發(fā)布的 VastGaussian 模型,實(shí)現(xiàn)了基于 3D Gaussian Splatting 進(jìn)行大型場(chǎng)景高保真重建和實(shí)時(shí)渲染。 現(xiàn)有基于NeRF大型場(chǎng)景重建方法,往往在視覺(jué)質(zhì)量和渲染速度方面存在局限性。雖然最近?3D Gaussians Spltting 在小規(guī)模和以對(duì)象為中心的場(chǎng)景中

    2024年04月12日
    瀏覽(14)
  • 3d場(chǎng)景重建&圖像渲染 | 神經(jīng)輻射場(chǎng)NeRF(Neural Radiance Fields)

    3d場(chǎng)景重建&圖像渲染 | 神經(jīng)輻射場(chǎng)NeRF(Neural Radiance Fields)

    ?????NeRF(Neural Radiance Fields,神經(jīng)輻射場(chǎng))是一種用于 3D場(chǎng)景重建和圖像渲染 的深度學(xué)習(xí)方法。它由Ben Mildenhall等人在2020年的論文《NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis》中首次提出。NeRF通過(guò)學(xué)習(xí)場(chǎng)景的連續(xù)體積密度和顏色分布, 能夠從任意視角準(zhǔn)確地渲

    2024年03月17日
    瀏覽(24)
  • DUSt3R-從任意圖像集合中重建3D場(chǎng)景的框架

    DUSt3R-從任意圖像集合中重建3D場(chǎng)景的框架

    DUSt3R是什么 DUSt3R(Dense and Unconstrained Stereo 3D Reconstruction,密集無(wú)約束立體三維重建)是由來(lái)自芬蘭阿爾托大學(xué)和Naver歐洲實(shí)驗(yàn)室的研究人員推出的一個(gè)3D重建框架,旨在簡(jiǎn)化從任意圖像集合中重建三維場(chǎng)景的過(guò)程,而無(wú)需事先了解相機(jī)校準(zhǔn)或視點(diǎn)位置的信息。該方法將成對(duì)重建問(wèn)

    2024年03月10日
    瀏覽(20)
  • 論文閱讀 TripoSR: Fast 3D Object Reconstruction from a Single Image 單張圖片快速完成3D重建

    論文閱讀 TripoSR: Fast 3D Object Reconstruction from a Single Image 單張圖片快速完成3D重建

    本文為記錄自己在NeRF學(xué)習(xí)道路的一些筆記,包括對(duì)論文以及其代碼的思考內(nèi)容。公眾號(hào): AI知識(shí)物語(yǔ) B站講解:出門吃三碗飯 論文地址: https://arxiv.org/abs/2403.02151 代碼: https://github.com/VAST-AI-Research/Tr ipoSR 先來(lái)看下演示效果 TripoSR可以在0.5秒內(nèi)從單張圖片重建高質(zhì)量3D模型,并

    2024年04月14日
    瀏覽(23)
  • 3D目標(biāo)檢測(cè)--PointPillars論文和OpenPCDet代碼解讀

    3D目標(biāo)檢測(cè)--PointPillars論文和OpenPCDet代碼解讀

    解決傳統(tǒng)基于柵格化的3D目標(biāo)檢測(cè)方法在面對(duì)高密度點(diǎn)云數(shù)據(jù)時(shí)的性能瓶頸; 柵格化方法需要將點(diǎn)云數(shù)據(jù)映射到規(guī)則的網(wǎng)格中,但是對(duì)于高密度點(diǎn)云,柵格化操作會(huì)導(dǎo)致嚴(yán)重的信息損失和運(yùn)算效率低下; 因此,該論文提出了一種新的基于點(diǎn)云的3D目標(biāo)檢測(cè)方法——PointPillars,

    2023年04月22日
    瀏覽(26)
  • 論文解讀 | 用于3D對(duì)象檢測(cè)的PV-RCNN網(wǎng)絡(luò)

    論文解讀 | 用于3D對(duì)象檢測(cè)的PV-RCNN網(wǎng)絡(luò)

    原創(chuàng) | 文 BFT機(jī)器人? 01 背景 本文的背景涉及到3D物體檢測(cè),這是一個(gè)在自動(dòng)駕駛和機(jī)器人等領(lǐng)域應(yīng)用廣泛的重要問(wèn)題。在這些領(lǐng)域,LiDAR傳感器被廣泛用于捕捉3D場(chǎng)景信息,生成不規(guī)則且稀疏的點(diǎn)云數(shù)據(jù)。這些點(diǎn)云數(shù)據(jù)提供了理解和感知3D場(chǎng)景的關(guān)鍵信息。然而,由于點(diǎn)云數(shù)據(jù)

    2024年02月09日
    瀏覽(19)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包