国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

經(jīng)典文獻(xiàn)閱讀之--Dynamic-VINS(動(dòng)態(tài)點(diǎn)濾除VINS)

這篇具有很好參考價(jià)值的文章主要介紹了經(jīng)典文獻(xiàn)閱讀之--Dynamic-VINS(動(dòng)態(tài)點(diǎn)濾除VINS)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

0. 簡介

現(xiàn)在的SLAM算法在靜態(tài)環(huán)境中表現(xiàn)良好,但在動(dòng)態(tài)環(huán)境中很容易失敗。最近的工作將基于深度學(xué)習(xí)的語義信息引入到SLAM系統(tǒng)以減輕動(dòng)態(tài)對(duì)象的影響。然而,在資源受限的機(jī)器人的動(dòng)態(tài)環(huán)境中應(yīng)用魯棒定位仍然具有挑戰(zhàn)性。所以《RGB-D Inertial Odometry for a Resource-Restricted Robot in Dynamic Environments》提出了一種用于動(dòng)態(tài)環(huán)境下資源受限機(jī)器人的實(shí)時(shí)RGB-D慣性里程計(jì)系統(tǒng)-Dynamic-VINS。系統(tǒng)包含三個(gè)主要并行運(yùn)行的線程:目標(biāo)檢測、特征跟蹤和狀態(tài)優(yōu)化。這里作者放出了Github代碼。Dynamic-VINS采用基于網(wǎng)格的特征檢測方法,提出了一種快速、高效的提取高質(zhì)量FAST特征點(diǎn)的方法。應(yīng)用IMU來預(yù)測運(yùn)動(dòng),進(jìn)行特征跟蹤以及運(yùn)動(dòng)一致性檢測。近年來,他們的實(shí)驗(yàn)室也在這方面做出了很多的貢獻(xiàn)。這里CSDN上傳空間有限,所以各位想看的直接去IEEE官網(wǎng)看即可。其方法和Github上的YOLO-DynaSLAM差異不大。但是效率更高。

RGB-D Inertial Odometry for a Resource-restricted Robot in Dynamic Environments

1. 文章貢獻(xiàn)

本文提出一種動(dòng)態(tài)環(huán)境下資源受限機(jī)器人的實(shí)時(shí)RGB-D慣性里程計(jì)(dynamic - vins)。它使邊緣計(jì)算設(shè)備能夠以較小的計(jì)算負(fù)擔(dān)為移動(dòng)平臺(tái)提供即時(shí)魯棒的狀態(tài)反饋。一種不需要高精度深度相機(jī)的高效動(dòng)態(tài)特征識(shí)別模塊可用于配備深度測量模塊的移動(dòng)設(shè)備。本文的主要貢獻(xiàn)如下:

  1. 為了在動(dòng)態(tài)復(fù)雜環(huán)境下為資源受限機(jī)器人提供實(shí)時(shí)狀態(tài)估計(jì)結(jié)果,提出了一種高效的基于優(yōu)化的RGB-D慣性里程計(jì)。
  2. 提出了輕量級(jí)的特征檢測與跟蹤方法,降低了計(jì)算負(fù)擔(dān)。此外,提出了結(jié)合目標(biāo)檢測和深度信息的動(dòng)態(tài)特征識(shí)別模塊,以提供復(fù)雜和戶外環(huán)境下魯棒的動(dòng)態(tài)特征識(shí)別。
  3. 在資源受限平臺(tái)和動(dòng)態(tài)環(huán)境下進(jìn)行了驗(yàn)證實(shí)驗(yàn),驗(yàn)證了所提方法的準(zhǔn)確性、魯棒性和高效性。

2. 具體算法

本文介紹的算法是基于VINS-Mono[2]和VINS-RGBD[25]對(duì)提出的SLAM系統(tǒng)進(jìn)行了擴(kuò)展;我們的框架如圖1所示,主要貢獻(xiàn)點(diǎn)的模塊用不同的顏色突出顯示。為了提高效率,Dynamic-VINS中有三個(gè)主線(由虛線包圍)并行運(yùn)行:目標(biāo)檢測、特征跟蹤和狀態(tài)優(yōu)化。彩色圖像被傳遞給目標(biāo)檢測線程和特征跟蹤線程。對(duì)連續(xù)兩幀之間的IMU測量值進(jìn)行[26]預(yù)積分,用于特征跟蹤、運(yùn)動(dòng)一致性檢查和狀態(tài)優(yōu)化。
經(jīng)典文獻(xiàn)閱讀之--Dynamic-VINS(動(dòng)態(tài)點(diǎn)濾除VINS)
在特征跟蹤線程中,利用IMU預(yù)積分實(shí)現(xiàn)特征跟蹤,并通過基于網(wǎng)格的特征檢測實(shí)現(xiàn)特征檢測。對(duì)象檢測線程實(shí)時(shí)檢測每幀中的動(dòng)態(tài)對(duì)象。然后,狀態(tài)優(yōu)化線程匯總特征信息、目標(biāo)檢測結(jié)果和深度圖像來識(shí)別動(dòng)態(tài)特征;針對(duì)漏檢情況進(jìn)行漏檢補(bǔ)償模塊。運(yùn)動(dòng)一致性檢測過程結(jié)合IMU預(yù)積分和歷史位姿估計(jì)結(jié)果識(shí)別潛在動(dòng)態(tài)特征。最后,利用穩(wěn)定特征和IMU預(yù)積分結(jié)果進(jìn)行姿態(tài)估計(jì)。IMU的傳播產(chǎn)生IMU率的姿態(tài)估計(jì)結(jié)果。該系統(tǒng)也支持閉環(huán),但重點(diǎn)關(guān)注與閉環(huán)無關(guān)的局部化。

3. 特征匹配

對(duì)于每幅輸入圖像,使用KLT稀疏光流方法[27]跟蹤特征點(diǎn);利用幀間IMU測量值預(yù)測特征點(diǎn)的運(yùn)動(dòng)。通過減少光流金字塔層數(shù),提供更好的特征初始位置估計(jì),提高特征跟蹤效率。它能有效地去除噪聲等不穩(wěn)定特征和運(yùn)動(dòng)不一致的動(dòng)態(tài)特征。基本思想如圖2所示(這部分類似vins的操作)。
經(jīng)典文獻(xiàn)閱讀之--Dynamic-VINS(動(dòng)態(tài)點(diǎn)濾除VINS)
在前一幀中,穩(wěn)定的特征被標(biāo)記為紅色,新檢測到的特征被標(biāo)記為藍(lán)色。當(dāng)當(dāng)前幀到達(dá)時(shí),使用當(dāng)前幀和前一幀之間的IMU測量值來預(yù)測當(dāng)前幀中的特征位置(綠色)。光流將預(yù)測的特征位置作為初始位置,在當(dāng)前幀中尋找匹配的特征。成功跟蹤的特征被標(biāo)記為紅色,而失敗的特征被標(biāo)記為不穩(wěn)定特征(紫色)。為避免特征檢測的重復(fù)和聚合,設(shè)置以穩(wěn)定特征為中心的橙色圓形掩模;將不穩(wěn)定特征所在區(qū)域視為不穩(wěn)定特征檢測區(qū)域,并用紫色圓形掩碼以避免不穩(wěn)定特征檢測。

根據(jù)掩碼,從當(dāng)前幀的未掩碼區(qū)域檢測到新的特征,并將其著色為藍(lán)色。上述方法可以獲得均勻分布的特征,捕捉綜合約束,避免在模糊或弱紋理區(qū)域重復(fù)提取不穩(wěn)定特征。長期的特征跟蹤可以在接下來的基于網(wǎng)格的特征檢測中減少時(shí)間消耗。

4. 基于網(wǎng)格的特征檢測

系統(tǒng)保持最小數(shù)量的特性以保持穩(wěn)定性。因此,需要不斷地從幀中提取特征點(diǎn)。采用基于網(wǎng)格的特征檢測方法。將圖像劃分為網(wǎng)格,對(duì)每個(gè)網(wǎng)格的邊界進(jìn)行填充,以防止忽略網(wǎng)格邊緣的特征;填充使當(dāng)前網(wǎng)格能夠獲得用于特征檢測的相鄰像素信息。與遍歷整個(gè)圖像進(jìn)行特征檢測不同,只有特征匹配不足的網(wǎng)格才進(jìn)行特征檢測。對(duì)于紋理弱而未能檢測到特征或被蒙版覆蓋的網(wǎng)格單元,將在下一幀檢測中跳過,避免重復(fù)無用檢測。采用線程池技術(shù)來提高基于網(wǎng)格的特征檢測的并行性能。因此,特征檢測的時(shí)間消耗顯著減少,且沒有損失。

快速特征檢測器[28]可以高效地提取特征點(diǎn),但容易將噪聲作為特征,提取相似的聚類特征。因此,結(jié)合第III-A節(jié)的mask和非極大值抑制的思想,選擇高質(zhì)量且均勻分布的快速特征。文章來源地址http://www.zghlxwxcb.cn/news/detail-494330.html

…詳情請參照古月居

到了這里,關(guān)于經(jīng)典文獻(xiàn)閱讀之--Dynamic-VINS(動(dòng)態(tài)點(diǎn)濾除VINS)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 經(jīng)典文獻(xiàn)閱讀之--VoxFormer(基于Transformer的3D語義場景補(bǔ)全)

    經(jīng)典文獻(xiàn)閱讀之--VoxFormer(基于Transformer的3D語義場景補(bǔ)全)

    之前了解了很多BEV的相關(guān)操作,但是基本上要么是激光和視覺結(jié)合,要么是純視覺完成的2D激光投影這兩種,而那種3D Occupancy方法可以利用柵格的方法完成純視覺占據(jù)柵格的生成?!禫oxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Completion》就是這種方法對(duì)于被遮擋的物

    2024年01月23日
    瀏覽(23)
  • 經(jīng)典文獻(xiàn)閱讀之--Orbeez-SLAM(單目稠密點(diǎn)云建圖)

    經(jīng)典文獻(xiàn)閱讀之--Orbeez-SLAM(單目稠密點(diǎn)云建圖)

    對(duì)于現(xiàn)在的VSLAM而言,現(xiàn)在越來越多的工作開始聚焦于如何將深度學(xué)習(xí)結(jié)合到VSLAM當(dāng)中,而最近的這個(gè)工作就給出了一個(gè)比較合適的方法。《Orbeez-SLAM: A Real-time Monocular Visual SLAM with ORB Features and NeRF-realized Mapping》這篇文章,可以輕松適應(yīng)新的場景,而不需要預(yù)先訓(xùn)練,并實(shí)時(shí)為

    2024年02月13日
    瀏覽(24)
  • 經(jīng)典文獻(xiàn)閱讀之--Gaussian Splatting SLAM(單目3D高斯濺射重建)

    經(jīng)典文獻(xiàn)閱讀之--Gaussian Splatting SLAM(單目3D高斯濺射重建)

    3D GS在NeRF領(lǐng)域已經(jīng)掀起了一股浪潮,然后又很快席卷到了SLAM領(lǐng)域,最近已經(jīng)看到很多3D GS和SLAM結(jié)合的開源工作了。將為大家分享帝國理工學(xué)院戴森機(jī)器人實(shí)驗(yàn)最新開源的方案《Gaussian Splatting SLAM》,這也是第一個(gè)將3D GS應(yīng)用到增量3D重建的工作,速度為3 FPS。要想實(shí)時(shí)從攝像頭

    2024年03月10日
    瀏覽(23)
  • 經(jīng)典文獻(xiàn)閱讀之--OccNeRF(基于神經(jīng)輻射場的自監(jiān)督多相機(jī)占用預(yù)測)

    經(jīng)典文獻(xiàn)閱讀之--OccNeRF(基于神經(jīng)輻射場的自監(jiān)督多相機(jī)占用預(yù)測)

    作為基于視覺感知的基本任務(wù),3D占據(jù)預(yù)測重建了周圍環(huán)境的3D結(jié)構(gòu)。它為自動(dòng)駕駛規(guī)劃和導(dǎo)航提供了詳細(xì)信息。然而,大多數(shù)現(xiàn)有方法嚴(yán)重依賴于激光雷達(dá)點(diǎn)云來生成占據(jù)地面真實(shí)性,而這在基于視覺的系統(tǒng)中是不可用的。之前我們介紹了《經(jīng)典文獻(xiàn)閱讀之–RenderOcc(使用2

    2024年02月03日
    瀏覽(23)
  • 經(jīng)典文獻(xiàn)閱讀之--Calib Anything(使用SAM的無訓(xùn)練標(biāo)定雷達(dá)相機(jī)外參)

    經(jīng)典文獻(xiàn)閱讀之--Calib Anything(使用SAM的無訓(xùn)練標(biāo)定雷達(dá)相機(jī)外參)

    Camera與LiDAR之間的外部標(biāo)定研究正朝著更精確、更自動(dòng)、更通用的方向發(fā)展,由于很多方法在標(biāo)定中采用了深度學(xué)習(xí),因此大大減少了對(duì)場景的限制。然而,數(shù)據(jù)驅(qū)動(dòng)方法具有傳輸能力低的缺點(diǎn)。除非進(jìn)行額外的訓(xùn)練,否則它無法適應(yīng)數(shù)據(jù)集的變化。隨著基礎(chǔ)模型的出現(xiàn),這

    2024年02月02日
    瀏覽(20)
  • 經(jīng)典文獻(xiàn)閱讀之--Point-LIO(魯棒高帶寬激光慣性里程計(jì))

    經(jīng)典文獻(xiàn)閱讀之--Point-LIO(魯棒高帶寬激光慣性里程計(jì))

    在我們之前接觸的算法中,基本上都是要處理幀間雷達(dá)畸變的,類似于VSLAM系統(tǒng),頻率固定(例如10Hz), 而實(shí)際上,激光雷達(dá)點(diǎn)是按照不同的時(shí)間瞬間順序采樣的,將這些點(diǎn)累積到幀中會(huì)引入人工運(yùn)動(dòng)畸變,并且會(huì)對(duì)地圖結(jié)果和里程計(jì)精度產(chǎn)生負(fù)面影響。低幀率還會(huì)增加里程計(jì)

    2024年02月04日
    瀏覽(22)
  • 經(jīng)典文獻(xiàn)閱讀之--Evaluation of Lidar-based 3D SLAM algorithms (激光SLAM性能比較)

    經(jīng)典文獻(xiàn)閱讀之--Evaluation of Lidar-based 3D SLAM algorithms (激光SLAM性能比較)

    我們在日常使用激光SLAM算法的時(shí)候,常常會(huì)發(fā)現(xiàn)現(xiàn)有的算法只會(huì)和一些比較經(jīng)典或者前作去進(jìn)行比較,很多時(shí)候我們更希望對(duì)主流的激光SLAM方法進(jìn)行性能比較。之前作者轉(zhuǎn)載過一篇文章《常見不同3D激光SLAM方案對(duì)比》。但是對(duì)比的算法有限?,F(xiàn)在瑞典Lule科技大學(xué)評(píng)估9種最常

    2024年02月02日
    瀏覽(20)
  • 使用動(dòng)態(tài)網(wǎng)格的流體動(dòng)畫 Fluid Animation with Dynamic Meshes 論文閱讀筆記

    使用動(dòng)態(tài)網(wǎng)格的流體動(dòng)畫 Fluid Animation with Dynamic Meshes 論文閱讀筆記

    原文: Klingner, Bryan M., et al. “Fluid animation with dynamic meshes.” ACM SIGGRAPH 2006 Papers. 2006. 820-825. 使用 [Alliez et al., 2005] 的方法動(dòng)態(tài)生成不規(guī)則的四面體網(wǎng)格 根據(jù)邊界的位置、邊界的形狀、基于流體和速度場的視覺重點(diǎn)部分的標(biāo)準(zhǔn)來構(gòu)建一個(gè)尺寸場。這個(gè)尺寸場表明要生成的四面體

    2024年02月21日
    瀏覽(15)
  • 【論文閱讀】點(diǎn)云地圖動(dòng)態(tài)障礙物去除基準(zhǔn) A Dynamic Points Removal Benchmark in Point Cloud Maps

    【論文閱讀】點(diǎn)云地圖動(dòng)態(tài)障礙物去除基準(zhǔn) A Dynamic Points Removal Benchmark in Point Cloud Maps

    終于一次輪到了講自己的paper了 hahaha,寫個(gè)中文的解讀放在博客方便大家討論 Title Picture Reference and prenotes paper: https://arxiv.org/abs/2307.07260 code: https://github.com/KTH-RPL/DynamicMap_Benchmark b站:地圖動(dòng)態(tài)障礙物去除總結(jié) ITSC’23: A Dynamic Points Removal Benchmark in Point Cloud Maps 主要就是2019年末

    2024年02月06日
    瀏覽(27)
  • 零知識(shí)證明經(jīng)典文獻(xiàn)大匯總(可收藏)

    零知識(shí)證明經(jīng)典文獻(xiàn)大匯總(可收藏)

    從去年的DAO經(jīng)典到更早的NFT經(jīng)典(以及在此之前是最初的加密經(jīng)典)。 本文, 為那些尋求理解、深入和構(gòu)建零知識(shí)的人挑選了一組資源:強(qiáng)大的基礎(chǔ)技術(shù),這些基礎(chǔ)技術(shù)掌握著區(qū)塊鏈可擴(kuò)展性的關(guān)鍵,代表著隱私應(yīng)用程序的未來,包括加密/web3中的應(yīng)用程序,以及無數(shù)其他創(chuàng)

    2024年02月06日
    瀏覽(12)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包