国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

經(jīng)典文獻(xiàn)閱讀之--Calib Anything(使用SAM的無訓(xùn)練標(biāo)定雷達(dá)相機(jī)外參)

這篇具有很好參考價值的文章主要介紹了經(jīng)典文獻(xiàn)閱讀之--Calib Anything(使用SAM的無訓(xùn)練標(biāo)定雷達(dá)相機(jī)外參)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

0. 簡介

Camera與LiDAR之間的外部標(biāo)定研究正朝著更精確、更自動、更通用的方向發(fā)展,由于很多方法在標(biāo)定中采用了深度學(xué)習(xí),因此大大減少了對場景的限制。然而,數(shù)據(jù)驅(qū)動方法具有傳輸能力低的缺點。除非進(jìn)行額外的訓(xùn)練,否則它無法適應(yīng)數(shù)據(jù)集的變化。隨著基礎(chǔ)模型的出現(xiàn),這個問題可以得到顯著緩解,通過使用分割任意模型(Segment Anything Model,SAM),我們這次提出了一種新的激光雷達(dá)相機(jī)標(biāo)定方法,該方法不需要額外的訓(xùn)練,并適用于常見場景。相關(guān)的代碼可以在Github上獲得。


1. 主要貢獻(xiàn)

首先使用SAM對整個圖像進(jìn)行語義分割,得到一組掩碼,在沒有在點云和掩模之間建立明確的對應(yīng)關(guān)系,而是計算掩模內(nèi)點云屬性的一致性,包括其強(qiáng)度、法向量和分割類。如圖1所示,在正確的外在條件下,汽車mask內(nèi)點的強(qiáng)度具有更高的一致性。對于法線向量,plane masks上的點應(yīng)具有一致的法線方向,簡單地通過平面擬合和歐氏聚類得到點云的分割類。vehicles和trunks 等目標(biāo)將聚集在一個類別中,因此mask上也具有一致性!論文計算了具有這三個屬性的每個mask的一致性得分,通過給出一個初始的外在值,可以通過最大化所有mask的總分來優(yōu)化它。

sam calib,深度學(xué)習(xí),數(shù)碼相機(jī)

圖1. 通過正確的外參(a)和錯誤的外參(b)投影到車的掩模上的點云。點的顏色表示強(qiáng)度值。


為此,本文主要工作的貢獻(xiàn)如下:

1)我們提出了一種新穎的自動LiDAR-相機(jī)外參校準(zhǔn)方法,使用SAM和點云一致性,不需要額外的訓(xùn)練。

2)外參參數(shù)的優(yōu)化標(biāo)準(zhǔn)是點云在掩模上的強(qiáng)度、法線向量和分割類別的一致性,使我們的方法適用于大多數(shù)場景。

3)我們在多個數(shù)據(jù)集上驗證了我們的方法,證明了其通用性和可比性精度。


2. 方法概述

整個過程可以分為三個部分。對于圖像分割,我們使用SAM生成整個圖像的掩模。對于點云,我們實現(xiàn)了法線估計、簡單的分割方法和強(qiáng)度歸一化,以生成每個點的對應(yīng)屬性。然后,優(yōu)化目標(biāo)是使落在一個掩模上的點具有接近的屬性值。我們設(shè)計了一個評估一致性的得分函數(shù)。進(jìn)行幾輪搜索以獲得最終結(jié)果。圖2顯示了我們提出的方法的流程。

sam calib,深度學(xué)習(xí),數(shù)碼相機(jī)

圖2. 方法概述。對于圖像,使用Segment Anything模型生成整個圖像的掩碼。對于點云,我們實現(xiàn)了法線估計、簡單的分割方法和強(qiáng)度歸一化,以生成每個點的相應(yīng)屬性。在優(yōu)化階段,通過外參將點云投影到掩碼上。我們設(shè)計了一個損失函數(shù),該函數(shù)由掩碼區(qū)域內(nèi)點的屬性一致性決定。

3. 數(shù)據(jù)預(yù)處理

3.1 圖像分割

首先在整個圖像上應(yīng)用SAM,以獲取許多不同對象的掩模。由于我們使用點云的一致性,我們希望分割更加細(xì)致和詳細(xì)。因此,我們調(diào)整SAM的超參數(shù)以獲得更多的掩模,并減少重疊區(qū)域。這些掩模被注釋為 M = { M i ∣ i = 0 , 1 , … , N } \mathbb{M} = \{M_i | i = 0, 1, …, N\} M={Mi?i=0,1,,N}。每個掩模是一個與圖像相同大小的二進(jìn)制矩陣。值 M i ( u , v ) = { 0 , 1 } M_i(u, v) = \{0, 1\} Mi?(u,v)={0,1}表示像素 ( u , v ) (u, v) (u,v)是否屬于第 i i i個分割。

3.2 點云預(yù)處理

預(yù)處理有三個部分:法線估計、強(qiáng)度歸一化和分割。

對于法線估計,有許多方法[32],[33]可以直接使用。在這里,我們選擇了一個簡單的方法,足以滿足我們的應(yīng)用需求。表面上的一個點的法線方向被近似為與表面相切的平面的法線。平面法線可以通過分析由查詢點的一些最近鄰創(chuàng)建的協(xié)方差矩陣的特征向量和特征值或主成分分析(PCA)來估計。使用K-d樹數(shù)據(jù)結(jié)構(gòu)進(jìn)行高效的k最近鄰(KNN)搜索。

點云的強(qiáng)度通過比例因子進(jìn)行歸一化,以便在點云的強(qiáng)度根據(jù)LiDAR類型不同而不同的情況下進(jìn)行后續(xù)的一致性計算。

除了這兩個屬性之外,我們對點云進(jìn)行簡單的分割方法。我們首先通過RANSAC算法進(jìn)行平面擬合,提取場景中的大型平面,如地面和墻壁。然后我們對剩余的點云應(yīng)用一些歐幾里得聚類[32],并獲得個體對象的聚類,如車輛和樹木。我們?yōu)辄c分配一個數(shù)字 c c c,表示它屬于哪個類別。 點云中點的最終屬性可以表示為:

sam calib,深度學(xué)習(xí),數(shù)碼相機(jī)

這是點 P P P的位置、法線向量、反射率和分割類別。

3.3 外參優(yōu)化 (重點內(nèi)容)

1)一致性函數(shù): 點 p p p可以通過初始外參 T T T投影到圖像幀中:

sam calib,深度學(xué)習(xí),數(shù)碼相機(jī)

在這里,我們假設(shè)內(nèi)參 K K K已知。然后對于每個掩模 M i M_i Mi?,我們可以得到一組落在其上的點:

sam calib,深度學(xué)習(xí),數(shù)碼相機(jī)

可以通過以下公式計算點集 P i P_i Pi?的一致性得分:

sam calib,深度學(xué)習(xí),數(shù)碼相機(jī)

其中, F R ( ? ) 、 F N ( ? ) 、 F S ( ? ) F_R(·)、F_N(·)、F_S(·) FR?(?)、FN?(?)、FS?(?)是反射率、法線向量和分割類別的對應(yīng)函數(shù), w R w_R wR?、 w N w_N wN?、 w S w_S wS?是它們的權(quán)重。在實踐中,我們使用 w R = w N = w S w_R = w_N = w_S wR?=wN?=wS?。 f ( ? ) f(·) f(?)是根據(jù)Pi中點的數(shù)量進(jìn)行調(diào)整的函數(shù)。 反射率一致性可以通過所有值的標(biāo)準(zhǔn)差(std)簡單計算

sam calib,深度學(xué)習(xí),數(shù)碼相機(jī)

假設(shè)大小為(3 × n)的矩陣 A A A P i P_i Pi?中的法線向量組成。法線向量的一致性函數(shù) F N F_N FN?表示為:

sam calib,深度學(xué)習(xí),數(shù)碼相機(jī)

它是所有**向量成對點積的平均值。對于分割類別,首先對每個類別的點進(jìn)行計數(shù)并按從大到小的順序排序。**這表示為 ( c 0 , c 1 , … ) (c_0,c_1,…) (c0?c1?,),其中 c i c_i ci?是第 i i i個最大類別中的點數(shù)。一致性是所有類別的加權(quán)和:

sam calib,深度學(xué)習(xí),數(shù)碼相機(jī)文章來源地址http://www.zghlxwxcb.cn/news/detail-783697.html

…詳情請參照古月居

到了這里,關(guān)于經(jīng)典文獻(xiàn)閱讀之--Calib Anything(使用SAM的無訓(xùn)練標(biāo)定雷達(dá)相機(jī)外參)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【論文閱讀筆記】Sam3d: Segment anything model in volumetric medical images[

    【論文閱讀筆記】Sam3d: Segment anything model in volumetric medical images[

    Bui N T, Hoang D H, Tran M T, et al. Sam3d: Segment anything model in volumetric medical images[J]. arXiv preprint arXiv:2309.03493, 2023.【開源】 本文提出的SAM3D模型是針對三維體積醫(yī)學(xué)圖像分割的一種新方法。其核心在于將“分割任何事物”(SAM)模型的預(yù)訓(xùn)練編碼器與一個輕量級的3D解碼器相結(jié)合。與

    2024年01月20日
    瀏覽(32)
  • 經(jīng)典文獻(xiàn)閱讀之--PCAccumulation(動態(tài)三維場景構(gòu)建)

    經(jīng)典文獻(xiàn)閱讀之--PCAccumulation(動態(tài)三維場景構(gòu)建)

    多波束激光雷達(dá)傳感器,常用于自動駕駛汽車和移動機(jī)器人,獲取三維范圍掃描序列(“幀”)。由于角度掃描分辨率有限和遮擋,每幀只稀疏地覆蓋場景。稀疏性限制了下游過程的性能,如語義分割或表面重建。幸運的是,當(dāng)傳感器移動時,從不同的視點捕獲幀。這提供了

    2024年02月03日
    瀏覽(27)
  • 經(jīng)典文獻(xiàn)閱讀之--STD(激光SLAM回環(huán)檢測算法)

    經(jīng)典文獻(xiàn)閱讀之--STD(激光SLAM回環(huán)檢測算法)

    各位也知道,我們在之前的博客中,介紹了很多回環(huán)的方法,比如Scan Context,Lris, BoW3D等方法。之前作者也在《重定位解析與思考》一文中,給到了一些回環(huán)檢測算法的介紹。最近林博新開源了一個回環(huán)檢測算法《STD: A Stable Triangle Descriptor for 3D place recognition》。我們從小烏塢

    2024年02月03日
    瀏覽(27)
  • 經(jīng)典文獻(xiàn)閱讀之--VoxelMap(體素激光里程計)

    經(jīng)典文獻(xiàn)閱讀之--VoxelMap(體素激光里程計)

    作為激光里程計,常用的方法一般是特征點法或者體素法,最近Mars實驗室發(fā)表了一篇文章《Efficient and Probabilistic Adaptive Voxel Mapping for Accurate Online LiDAR Odometry》,同時還開源了代碼在Github上。文中為雷達(dá)里程計提出了一種高效的概率自適應(yīng)體素建圖方法。地圖是體素的集合,

    2024年02月16日
    瀏覽(20)
  • 經(jīng)典文獻(xiàn)閱讀之--PL-SLAM(點線SLAM)

    經(jīng)典文獻(xiàn)閱讀之--PL-SLAM(點線SLAM)

    之前作者基本都在圍繞著特征點提取的路徑在學(xué)習(xí),最近看到了最近點云PCL推送的《Structure PLP-SLAM: Efficient Sparse Mapping and Localization using Point, Line and Plane for Monocular, RGB-D and Stereo Cameras》。這個工作是基于OpenVSLAM架構(gòu)的,但是由于OpenVSLAM被認(rèn)為侵權(quán),所以作者想從PL-SLAM開始,學(xué)

    2024年02月11日
    瀏覽(22)
  • 經(jīng)典文獻(xiàn)閱讀之--VoxFormer(基于Transformer的3D語義場景補(bǔ)全)

    經(jīng)典文獻(xiàn)閱讀之--VoxFormer(基于Transformer的3D語義場景補(bǔ)全)

    之前了解了很多BEV的相關(guān)操作,但是基本上要么是激光和視覺結(jié)合,要么是純視覺完成的2D激光投影這兩種,而那種3D Occupancy方法可以利用柵格的方法完成純視覺占據(jù)柵格的生成?!禫oxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene Completion》就是這種方法對于被遮擋的物

    2024年01月23日
    瀏覽(23)
  • 使用Segment Anything(SAM)模型進(jìn)行自動標(biāo)注

    使用Segment Anything(SAM)模型進(jìn)行自動標(biāo)注

    1.下載項目 項目1:https://github.com/zhouayi/SAM-Tool 項目2:https://github.com/facebookresearch/segment-anything 下載 SAM 模型:https://dl.fbaipublicfiles.com/segment_anything/sam_vit_h_4b8939.pth 2.把數(shù)據(jù)放置在 dataset_path/images/* 這樣的路徑中,并創(chuàng)建空文件夾 dataset_path/embeddings 3.將項目1中的 helpers 文件夾復(fù)

    2024年02月04日
    瀏覽(29)
  • 經(jīng)典文獻(xiàn)閱讀之--Dynamic-VINS(動態(tài)點濾除VINS)

    經(jīng)典文獻(xiàn)閱讀之--Dynamic-VINS(動態(tài)點濾除VINS)

    現(xiàn)在的SLAM算法在靜態(tài)環(huán)境中表現(xiàn)良好,但在動態(tài)環(huán)境中很容易失敗。最近的工作將基于深度學(xué)習(xí)的語義信息引入到SLAM系統(tǒng)以減輕動態(tài)對象的影響。然而,在資源受限的機(jī)器人的動態(tài)環(huán)境中應(yīng)用魯棒定位仍然具有挑戰(zhàn)性。所以《RGB-D Inertial Odometry for a Resource-Restricted Robot in Dy

    2024年02月09日
    瀏覽(22)
  • Segment Anything(SAM)的demo的簡單使用

    Segment Anything(SAM)的demo的簡單使用

    目錄 SAM的demo源碼使用 結(jié)合SAM,進(jìn)行人機(jī)交互ui使用的案例介紹: 最近新發(fā)現(xiàn)的,可以利用這個模型,進(jìn)行一個簡單的UI使用,效果如下: labelimg結(jié)合SAM實現(xiàn)半自動標(biāo)注軟件 首先說明這個鏈接里面的代碼是關(guān)于demo的,目前還不能訓(xùn)練。 原倉庫 https://github.com/facebookresearch/seg

    2024年02月01日
    瀏覽(27)
  • 經(jīng)典文獻(xiàn)閱讀之--Orbeez-SLAM(單目稠密點云建圖)

    經(jīng)典文獻(xiàn)閱讀之--Orbeez-SLAM(單目稠密點云建圖)

    對于現(xiàn)在的VSLAM而言,現(xiàn)在越來越多的工作開始聚焦于如何將深度學(xué)習(xí)結(jié)合到VSLAM當(dāng)中,而最近的這個工作就給出了一個比較合適的方法?!禣rbeez-SLAM: A Real-time Monocular Visual SLAM with ORB Features and NeRF-realized Mapping》這篇文章,可以輕松適應(yīng)新的場景,而不需要預(yù)先訓(xùn)練,并實時為

    2024年02月13日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包