国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

經(jīng)典文獻(xiàn)閱讀之--PCAccumulation(動(dòng)態(tài)三維場(chǎng)景構(gòu)建)

這篇具有很好參考價(jià)值的文章主要介紹了經(jīng)典文獻(xiàn)閱讀之--PCAccumulation(動(dòng)態(tài)三維場(chǎng)景構(gòu)建)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

0. 簡(jiǎn)介

多波束激光雷達(dá)傳感器,常用于自動(dòng)駕駛汽車和移動(dòng)機(jī)器人,獲取三維范圍掃描序列(“幀”)。由于角度掃描分辨率有限和遮擋,每幀只稀疏地覆蓋場(chǎng)景。稀疏性限制了下游過程的性能,如語義分割或表面重建。幸運(yùn)的是,當(dāng)傳感器移動(dòng)時(shí),從不同的視點(diǎn)捕獲幀。這提供了補(bǔ)充信息,并在公共場(chǎng)景坐標(biāo)系中累積時(shí),產(chǎn)生了更密集的采樣和對(duì)基礎(chǔ)三維場(chǎng)景的更全面覆蓋。然而,掃描的場(chǎng)景通常包含移動(dòng)的物體。僅通過補(bǔ)償掃描儀的運(yùn)動(dòng)無法正確對(duì)齊這些移動(dòng)物體上的點(diǎn)。為此文章《Dynamic 3D Scene Analysis by Point Cloud Accumulation》提供了多幀點(diǎn)云積累作為 3D 掃描序列的中間表示,并開發(fā)了一種利用戶外街景幾何布局和剛性物體的歸納偏差的方法。該文代碼也在Github中完成了開源。

Dynamic 3D Scene Analysis by Point Cloud Accumulation

1. 文章貢獻(xiàn)

  1. 提出了一種新穎的,可學(xué)習(xí)的模型,用于在多幀中時(shí)間累積三維點(diǎn)云序列,將背景與動(dòng)態(tài)前景物體分開。通過將場(chǎng)景分解為隨時(shí)間移動(dòng)的固體物體,我們的模型能夠?qū)W習(xí)多幀運(yùn)動(dòng),并在更長(zhǎng)時(shí)間序列中以上下文的方式推理車輛運(yùn)動(dòng)。
  2. 該方法允許低延遲處理,因?yàn)樗鼘?duì)原始點(diǎn)云進(jìn)行操作,僅需要它們的序列順序作為進(jìn)一步的輸入。因此,適用于在線場(chǎng)景。
  3. 相比于之前的工作,本文著重對(duì)移動(dòng)物體和靜止場(chǎng)景相對(duì)于移動(dòng)中的 LiDAR 傳感器運(yùn)動(dòng)建模,而不是對(duì)每一個(gè)點(diǎn)獨(dú)立地估計(jì)運(yùn)動(dòng)流。這樣的方式可以充分利用剛體運(yùn)動(dòng)的假設(shè),從而提升運(yùn)動(dòng)流估計(jì)的準(zhǔn)確性。

經(jīng)典文獻(xiàn)閱讀之--PCAccumulation(動(dòng)態(tài)三維場(chǎng)景構(gòu)建)

2. 詳細(xì)內(nèi)容

多任務(wù)模型的網(wǎng)絡(luò)架構(gòu)在圖2中示意描述。為了隨著時(shí)間累積點(diǎn),我們利用了場(chǎng)景可以分解為移動(dòng)為剛體的代理[19]的歸納偏見。我們首先提取每個(gè)單獨(dú)幀的潛在基礎(chǔ)特征(§3.1),然后將其作為輸入到任務(wù)特定的頭部。為了估計(jì)自我運(yùn)動(dòng),我們使用可微分的配準(zhǔn)模塊(§3.2)。我們不僅使用自我運(yùn)動(dòng)來對(duì)齊靜態(tài)場(chǎng)景部分,還使用它來對(duì)齊基礎(chǔ)特征,這些基礎(chǔ)特征在后續(xù)階段中被重復(fù)使用。為了解釋動(dòng)態(tài)前景的運(yùn)動(dòng),我們利用對(duì)齊的基礎(chǔ)特征并進(jìn)行運(yùn)動(dòng)分割(§3.3)以及動(dòng)態(tài)前景對(duì)象的時(shí)空關(guān)聯(lián)(§3.4)。最后,我們從每個(gè)前景對(duì)象的時(shí)空特征解碼出它的剛體運(yùn)動(dòng)(§3.5)。我們端對(duì)端地訓(xùn)練整個(gè)模型,使用由五個(gè)項(xiàng)組成的損失L:
經(jīng)典文獻(xiàn)閱讀之--PCAccumulation(動(dòng)態(tài)三維場(chǎng)景構(gòu)建)
在下面,我們對(duì)每個(gè)模塊進(jìn)行高層次的描述。詳細(xì)的網(wǎng)絡(luò)架構(gòu)。

2.1 問題設(shè)定

考慮有序點(diǎn)云序列 X = X t t = 1 T X={X^t}^T_{t=1} X=Xtt=1T?,其由變量大小的 T T T 幀組成,每幀 X t = [ x 1 t , . . . , x i t , . . . , x t n t ] ∈ R 3 × n t X^t=[x^t_1 ,...,x^t_i ,...,x^t{n_t} ]∈R^{3×n_t} Xt=[x1t?,...,xit?,...,xtnt?]R3×nt? 是由移動(dòng)的車輛在恒定時(shí)間間隔 ? t ?t ?t內(nèi)捕獲。每一幀點(diǎn)云進(jìn)行前景與背景分割。背景點(diǎn)被用來估計(jì)傳感器的自我運(yùn)動(dòng),而前景點(diǎn)則繼續(xù)被分類為移動(dòng)或靜止的前景。我們將第一幀 X 1 X^1 X1 稱為目標(biāo)幀,而其余幀 { X t ∣ t > 1 } \{X^t | t>1\} {Xtt>1} 稱為原始幀。文中的目標(biāo)是估計(jì)將每個(gè)原始幀對(duì)齊到目標(biāo)幀的流向量 { V t ∈ R 3 × n t ∣ t > 1 } \{V^t∈\mathbb{R}^{3×n_t} | t>1\} {VtR3×nt?t>1},從而累積點(diǎn)云。每個(gè)幀可以分解為靜態(tài)部分 X s t a t i c t X^t_{static} Xstatict? K t K_t Kt? 剛性移動(dòng)動(dòng)態(tài)部分 X d y n a m i c t = { X k t } k = 1 K t X^t_{dynamic}=\{X^t_k \}^{K_t}_{k=1} Xdynamict?={Xkt?}k=1Kt?? 。具體如下所示:
經(jīng)典文獻(xiàn)閱讀之--PCAccumulation(動(dòng)態(tài)三維場(chǎng)景構(gòu)建)
其中 T ? X ( T ? x ) T?X(T ? x) T?X(T?x)表示將變換應(yīng)用于點(diǎn)集 X X X(或點(diǎn) x x x)。
經(jīng)典文獻(xiàn)閱讀之--PCAccumulation(動(dòng)態(tài)三維場(chǎng)景構(gòu)建)

2.2 骨干網(wǎng)絡(luò)

骨干網(wǎng)絡(luò)將單幀的 3D 點(diǎn)云轉(zhuǎn)換為俯視圖(BEV)潛在特征圖像。具體來說,我們使用點(diǎn)級(jí) MLP 將點(diǎn)坐標(biāo)提升到更高維潛在空間,然后將它們散射到與重力軸對(duì)齊的 H × W H×W H×W 特征網(wǎng)格中。使用最大池化聚合每個(gè)網(wǎng)格單元(“柱”)的特征,然后通過 2D UNet [37] 擴(kuò)大其感受野并加強(qiáng)局部上下文。骨干網(wǎng)絡(luò)的輸出是每個(gè) T T T幀的 2D 潛在基礎(chǔ)特征圖 F b a s e t F^t_{base} Fbaset?。

經(jīng)典文獻(xiàn)閱讀之--PCAccumulation(動(dòng)態(tài)三維場(chǎng)景構(gòu)建)

2.3 傳感器運(yùn)動(dòng)估計(jì)

我們使用基于對(duì)應(yīng)關(guān)系的配準(zhǔn)模塊單獨(dú)為每個(gè)源幀估計(jì)本體運(yùn)動(dòng) T e g o t T^t_{ego} Tegot?。屬于動(dòng)態(tài)對(duì)象的點(diǎn)可以偏離本體運(yùn)動(dòng)的估計(jì),特別是在使用基于對(duì)應(yīng)關(guān)系的方法時(shí),應(yīng)該被舍棄。然而,在流水線的早期階段,需要考慮場(chǎng)景動(dòng)態(tài)性是很困難的,因此我們采用保守的方法并將點(diǎn)分類為背景和前景,其中前景包含所有可移動(dòng)的對(duì)象(例如,汽車和行人),而不考慮實(shí)際的動(dòng)態(tài)性[19]。預(yù)測(cè)的前景蒙版后來用于在§3.3中指導(dǎo)運(yùn)動(dòng)分割。

我們首先使用兩個(gè)專用的頭部從每個(gè) F b a s e t F^t_{base} Fbaset?中提取本體運(yùn)動(dòng)特征 F e t g o F^t_ego Fet?go和前景得分 s F G t s^t_{FG} sFGt?,每個(gè)都包含兩個(gè)卷積層,由ReLU激活和批量標(biāo)準(zhǔn)化隔開。然后,我們隨機(jī)抽樣 s F G t < τ s^t_{FG} < τ sFGt?<τ的Nego背景柱,并計(jì)算柱心坐標(biāo) P t = p l t P_t = {p^t_l} Pt?=plt?。本體運(yùn)動(dòng) T e g o t T^t_{ego} Tegot?被估計(jì)為:
經(jīng)典文獻(xiàn)閱讀之--PCAccumulation(動(dòng)態(tài)三維場(chǎng)景構(gòu)建)
在這里, ? ( p l t , P 1 ) ?(p^t_l , P^1) ?(plt?,P1) 找到了 p l t p^t_l plt? P 1 P^1 P1中的軟對(duì)應(yīng),而 w l t w^t_l wlt?是對(duì)應(yīng)對(duì) ( p l t , ? ( p l t , P 1 ) ) (p^t_l, ?(p^t_l , P^1)) (plt?,?(plt?,P1)) 之間的權(quán)重。 ? ( p l t , P 1 ) ?(p^t_l , P^1) ?(plt?,P1) w l t w^t_l wlt? 都是使用帶有熵正則化的 Sinkhorn 算法從 F e g o t F^t_{ego} Fegot?估計(jì)出來的,其中 F e g o t F^t_{ego} Fegot?有一些松弛行/列填充[11,66],并且 T e g o t T^t_{ego} Tegot?的最優(yōu)值是通過可微分的Kabsch算法[27]計(jì)算出來的。簡(jiǎn)要來說,其中 p p p為 Pillar 中心的坐標(biāo), ? ? ? 為 幀 t t t 中Pillar p p p在幀1中的軟映射, w w w為相應(yīng)的映射權(quán)重。

2.4 移動(dòng)物體分割

執(zhí)行動(dòng)作分割,重新使用每幀基礎(chǔ)功能 { F b a s e t } \{F^t_{base}\} {Fbaset?}。具體來說,我們應(yīng)用可微分的特征扭曲方案[49],使用預(yù)測(cè)的自我運(yùn)動(dòng) T e g o t T^t_{ego} Tegot?扭曲每個(gè) F b a s e t F^t_{base} Fbaset?,并通過沿通道維度堆疊扭曲的特征圖來獲得大小為 C × T × H × W C×T×H×W C×T×H×W的時(shí)空3D特征張量。然后將這個(gè)特征張量通過一系列3D卷積層,再經(jīng)過沿時(shí)間維度 T T T的最大池化。最后,我們應(yīng)用一個(gè)小的2D UNet來獲得2D運(yùn)動(dòng)特征圖F motion。為了減少離散誤差,我們將網(wǎng)格運(yùn)動(dòng)特征雙線性插值到每幀中所有前景點(diǎn)上。計(jì)算 x i t x^t_i xit?的點(diǎn)級(jí)運(yùn)動(dòng)特征如下:文章來源地址http://www.zghlxwxcb.cn/news/detail-437342.html

…詳情請(qǐng)參照古月居

到了這里,關(guān)于經(jīng)典文獻(xiàn)閱讀之--PCAccumulation(動(dòng)態(tài)三維場(chǎng)景構(gòu)建)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 經(jīng)典文獻(xiàn)閱讀之--PL-SLAM(點(diǎn)線SLAM)

    經(jīng)典文獻(xiàn)閱讀之--PL-SLAM(點(diǎn)線SLAM)

    之前作者基本都在圍繞著特征點(diǎn)提取的路徑在學(xué)習(xí),最近看到了最近點(diǎn)云PCL推送的《Structure PLP-SLAM: Efficient Sparse Mapping and Localization using Point, Line and Plane for Monocular, RGB-D and Stereo Cameras》。這個(gè)工作是基于OpenVSLAM架構(gòu)的,但是由于OpenVSLAM被認(rèn)為侵權(quán),所以作者想從PL-SLAM開始,學(xué)

    2024年02月11日
    瀏覽(22)
  • 經(jīng)典文獻(xiàn)閱讀之--Orbeez-SLAM(單目稠密點(diǎn)云建圖)

    經(jīng)典文獻(xiàn)閱讀之--Orbeez-SLAM(單目稠密點(diǎn)云建圖)

    對(duì)于現(xiàn)在的VSLAM而言,現(xiàn)在越來越多的工作開始聚焦于如何將深度學(xué)習(xí)結(jié)合到VSLAM當(dāng)中,而最近的這個(gè)工作就給出了一個(gè)比較合適的方法。《Orbeez-SLAM: A Real-time Monocular Visual SLAM with ORB Features and NeRF-realized Mapping》這篇文章,可以輕松適應(yīng)新的場(chǎng)景,而不需要預(yù)先訓(xùn)練,并實(shí)時(shí)為

    2024年02月13日
    瀏覽(24)
  • 經(jīng)典文獻(xiàn)閱讀之--Gaussian Splatting SLAM(單目3D高斯濺射重建)

    經(jīng)典文獻(xiàn)閱讀之--Gaussian Splatting SLAM(單目3D高斯濺射重建)

    3D GS在NeRF領(lǐng)域已經(jīng)掀起了一股浪潮,然后又很快席卷到了SLAM領(lǐng)域,最近已經(jīng)看到很多3D GS和SLAM結(jié)合的開源工作了。將為大家分享帝國(guó)理工學(xué)院戴森機(jī)器人實(shí)驗(yàn)最新開源的方案《Gaussian Splatting SLAM》,這也是第一個(gè)將3D GS應(yīng)用到增量3D重建的工作,速度為3 FPS。要想實(shí)時(shí)從攝像頭

    2024年03月10日
    瀏覽(23)
  • 經(jīng)典文獻(xiàn)閱讀之--OccNeRF(基于神經(jīng)輻射場(chǎng)的自監(jiān)督多相機(jī)占用預(yù)測(cè))

    經(jīng)典文獻(xiàn)閱讀之--OccNeRF(基于神經(jīng)輻射場(chǎng)的自監(jiān)督多相機(jī)占用預(yù)測(cè))

    作為基于視覺感知的基本任務(wù),3D占據(jù)預(yù)測(cè)重建了周圍環(huán)境的3D結(jié)構(gòu)。它為自動(dòng)駕駛規(guī)劃和導(dǎo)航提供了詳細(xì)信息。然而,大多數(shù)現(xiàn)有方法嚴(yán)重依賴于激光雷達(dá)點(diǎn)云來生成占據(jù)地面真實(shí)性,而這在基于視覺的系統(tǒng)中是不可用的。之前我們介紹了《經(jīng)典文獻(xiàn)閱讀之–RenderOcc(使用2

    2024年02月03日
    瀏覽(23)
  • 經(jīng)典文獻(xiàn)閱讀之--Calib Anything(使用SAM的無訓(xùn)練標(biāo)定雷達(dá)相機(jī)外參)

    經(jīng)典文獻(xiàn)閱讀之--Calib Anything(使用SAM的無訓(xùn)練標(biāo)定雷達(dá)相機(jī)外參)

    Camera與LiDAR之間的外部標(biāo)定研究正朝著更精確、更自動(dòng)、更通用的方向發(fā)展,由于很多方法在標(biāo)定中采用了深度學(xué)習(xí),因此大大減少了對(duì)場(chǎng)景的限制。然而,數(shù)據(jù)驅(qū)動(dòng)方法具有傳輸能力低的缺點(diǎn)。除非進(jìn)行額外的訓(xùn)練,否則它無法適應(yīng)數(shù)據(jù)集的變化。隨著基礎(chǔ)模型的出現(xiàn),這

    2024年02月02日
    瀏覽(20)
  • 經(jīng)典文獻(xiàn)閱讀之--Point-LIO(魯棒高帶寬激光慣性里程計(jì))

    經(jīng)典文獻(xiàn)閱讀之--Point-LIO(魯棒高帶寬激光慣性里程計(jì))

    在我們之前接觸的算法中,基本上都是要處理幀間雷達(dá)畸變的,類似于VSLAM系統(tǒng),頻率固定(例如10Hz), 而實(shí)際上,激光雷達(dá)點(diǎn)是按照不同的時(shí)間瞬間順序采樣的,將這些點(diǎn)累積到幀中會(huì)引入人工運(yùn)動(dòng)畸變,并且會(huì)對(duì)地圖結(jié)果和里程計(jì)精度產(chǎn)生負(fù)面影響。低幀率還會(huì)增加里程計(jì)

    2024年02月04日
    瀏覽(22)
  • 經(jīng)典文獻(xiàn)閱讀之--Evaluation of Lidar-based 3D SLAM algorithms (激光SLAM性能比較)

    經(jīng)典文獻(xiàn)閱讀之--Evaluation of Lidar-based 3D SLAM algorithms (激光SLAM性能比較)

    我們?cè)谌粘J褂眉す釹LAM算法的時(shí)候,常常會(huì)發(fā)現(xiàn)現(xiàn)有的算法只會(huì)和一些比較經(jīng)典或者前作去進(jìn)行比較,很多時(shí)候我們更希望對(duì)主流的激光SLAM方法進(jìn)行性能比較。之前作者轉(zhuǎn)載過一篇文章《常見不同3D激光SLAM方案對(duì)比》。但是對(duì)比的算法有限。現(xiàn)在瑞典Lule科技大學(xué)評(píng)估9種最常

    2024年02月02日
    瀏覽(20)
  • Threejs進(jìn)階之一:基于vite+vue3+threejs構(gòu)建三維場(chǎng)景

    Threejs進(jìn)階之一:基于vite+vue3+threejs構(gòu)建三維場(chǎng)景

    前面的章節(jié)我們都是通過HTML+JS的方式創(chuàng)建三維場(chǎng)景,從這一章節(jié)開始,我們后面將使用vite+vue3+threejs來構(gòu)建三維場(chǎng)景。 打開vscode的終端管理器,輸入如下命令 在彈出的選擇框架提醒中,按上下鍵盤鍵,選擇Vue,然后回車 選擇JavaScript,回車 提示項(xiàng)目創(chuàng)建完成, 輸入cd vue3-t

    2024年02月12日
    瀏覽(25)
  • 經(jīng)典動(dòng)態(tài)規(guī)劃問題詳解以及其主要應(yīng)用場(chǎng)景

    經(jīng)典動(dòng)態(tài)規(guī)劃問題詳解以及其主要應(yīng)用場(chǎng)景

    ** 動(dòng)態(tài)規(guī)劃(英語:Dynamic programming,簡(jiǎn)稱 DP),是一種在數(shù)學(xué)、管理科學(xué)、計(jì)算機(jī)科學(xué)、經(jīng)濟(jì)學(xué)和生物信息學(xué)中使用的,通過把原問題分解為相對(duì)簡(jiǎn)單的子問題的方式求解復(fù)雜問題的方法。動(dòng)態(tài)規(guī)劃常常適用于有重疊子問題和最優(yōu)子結(jié)構(gòu)性質(zhì)的問題。。 動(dòng)態(tài)規(guī)劃最核心的思

    2024年02月10日
    瀏覽(16)
  • 文獻(xiàn)學(xué)習(xí)-37-動(dòng)態(tài)場(chǎng)景中任意形狀針的單目 3D 位姿估計(jì):一種高效的視覺學(xué)習(xí)和幾何建模方法

    文獻(xiàn)學(xué)習(xí)-37-動(dòng)態(tài)場(chǎng)景中任意形狀針的單目 3D 位姿估計(jì):一種高效的視覺學(xué)習(xí)和幾何建模方法

    Authors:?Bin Li,? , Student Member, IEEE, Bo Lu,? , Member, IEEE, Hongbin Lin, Yaxiang Wang, Fangxun Zhong, Member, IEEE, Qi Dou, Member, IEEE and Yun-Hui Liu, Fellow, IEEE Source:?IEEE TRANSACTIONS ON MEDICAL ROBOTICS AND BIONICS Keywords:?Surgical Robotics, Pose Estimation, Geometry Modeling, Vision-based Manipulation Abstract: 導(dǎo)向圖像的針具姿

    2024年04月17日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包