国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文閱讀】Deep Instance Segmentation With Automotive Radar Detection Points

這篇具有很好參考價值的文章主要介紹了【論文閱讀】Deep Instance Segmentation With Automotive Radar Detection Points。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

基于汽車雷達檢測點的深度實例分割

一個區(qū)別:

automotive radar?汽車雷達 :

分辨率低,點云稀疏,語義上模糊,不適合直接使用用于密集LiDAR點開發(fā)的方法? ;

返回的物體圖像不如LIDAR精確,可以在雨,雪,雨夾雪,冰雹,霧,泥和塵土中返回;

在夜間和陰天條件下也比激光雷達更準確;

發(fā)出的是無線電波而不是激光束

LiDAR?激光雷達:

激光波比無線電波短,因此激光雷達可以生成更詳細的物體圖像;貴

【論文閱讀】Deep Instance Segmentation With Automotive Radar Detection Points,點云,論文閱讀

?左 LiDAR;右 RADAR??

============================================

提出問題:

從無線電雷達在點云實例分割上的實際問題出發(fā):

問題一:雷達測點由于分辨率較低,比激光雷達測點云更稀疏、噪聲更大,缺乏語義和幾何信息,一些幾何信息例如物體的形狀,不能通過點的分布來反映,從而導致局部信息的缺乏。

問題二:? 汽車駕駛需要對雷達數(shù)據(jù)進行實時處理的算法,雷達處理系統(tǒng)中的微中心單元(MCU)限制了模型的存儲空間和可用的計算能力。

分析問題:

針對問題一:全局特征信息可以幫助分割任務,該如何設計一種深度學習算法來解決雷達檢測點的稀疏性和模糊性 ,因為主流的pointnet++是模仿卷積思維,按照提取局部特征的思維來設計的,要很深的網絡才能學到全局相互作用

針對問題二:性能提高的同時要兼顧實際場景,盡量輕量化

解決方案:

1、針對汽車雷達稀疏檢測點的實例分割任務,設計了一種基于語義分割的聚類方法。該模型是基于PointNet++的語義分割版本設計的,新引入的頭部估計點向中心偏移向量(CSV)--它表示從每個檢測點到其相應實例的幾何中心的偏移量。在聚類過程中,利用預測的CSV將每個點向其實例的中心移動,從而使屬于同一實例的點更加接近,提高聚類精度

2、使用余弦相似性損失和歸一化內積損失的和作為稀疏雷達檢測點的語義分割訓練過程中的損失,以提高性能的CSV引導聚類----為上述提出的中心偏移量適配的損失,來最小化 預測CSV 和ground-truth CSV之間的距離

3、提出使用gMLP來進一步提高模型的性能

得到的效果:

平均覆蓋率(mCov)和平均精度(mAP)分別比基于聚類的分類方法高9.0%和9.2%,比端到端實例分割方法高8.6%和9.1%。同時,該方法及其輕量級版本的內存消耗保持在1MB左右,推理時間小于40 ms,適用于汽車雷達單片機

具體做法:

【論文閱讀】Deep Instance Segmentation With Automotive Radar Detection Points,點云,論文閱讀

?N為樣本量;C表示主干網絡的輸出通道數(shù);Nclass是類的數(shù)量;Ndim為雷達原始探測點的尺寸。輸入點首先通過逐點分類分支獲得其預測類標號。然后根據(jù)csv預測分支對其預測的csv進行移動,使屬于同一實例的點更加集中。然后,具有相同類標簽的點被聚成簇(即實例)。在樣例幀的實例分割結果中,不同的顏色表示不同的類,同一個圓中的點屬于同一個實例。

【論文閱讀】Deep Instance Segmentation With Automotive Radar Detection Points,點云,論文閱讀

?(a)PointNet++主干網絡,采用兩個SA水平和兩個FP水平的結構,提取點特征

(b)預測頭的結構,預測頭為兩層mlp,語義分割分支預測每個點的每個類的得分,而對于csv預測分支,預測每個點與其實例中心之間的差異。

(c) csv的圖解,同一圓內的點屬于同一實例

(d)可視化的整體結構的MLP增強PointNet++主干網絡??梢暬腗LP塊在每個集合抽象級別和特征傳播級別之后添加gMLP

【論文閱讀】Deep Instance Segmentation With Automotive Radar Detection Points,點云,論文閱讀

?學習參考:

gmlp結構要看下原論文 :Pay Attention to MLPs

實驗上的敘述文章來源地址http://www.zghlxwxcb.cn/news/detail-642546.html

到了這里,關于【論文閱讀】Deep Instance Segmentation With Automotive Radar Detection Points的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 論文閱讀:Polyp-PVT: Polyp Segmentation with PyramidVision Transformers

    論文閱讀:Polyp-PVT: Polyp Segmentation with PyramidVision Transformers

    這篇論文提出了一種名為Polyp-PVT的新型息肉分割框架,該框架采用金字塔視覺變換器(Pyramid Vision Transformer, PVT)作為編碼器,以顯式提取更強大的特征。本模型中使用到的關鍵技術有三個:漸進式特征融合、通道和空間注意力、自注意力。 Polyp-PVT通過引入三個簡單的組件—

    2024年04月13日
    瀏覽(23)
  • On Moving Object Segmentation from Monocular Video with Transformers 論文閱讀

    On Moving Object Segmentation from Monocular Video with Transformers 論文閱讀

    標題 :On Moving Object Segmentation from Monocular Video with Transformers 作者 : 來源 :ICCV 時間 :2023 代碼地址 :暫無 通過單個移動攝像機進行移動對象檢測和分割是一項具有挑戰(zhàn)性的任務,需要了解識別、運動和 3D 幾何。將識別和重建結合起來可以歸結為融合問題,其中需要結合外

    2024年02月08日
    瀏覽(21)
  • 【論文閱讀筆記】A literature survey of MR-based brain tumor segmentation with missing modalities

    【論文閱讀筆記】A literature survey of MR-based brain tumor segmentation with missing modalities

    Zhou T, Ruan S, Hu H. A literature survey of MR-based brain tumor segmentation with missing modalities[J]. Computerized Medical Imaging and Graphics, 2023, 104: 102167. 這篇文獻綜述重點探討了在磁共振成像(MRI)用于腦腫瘤分割時面臨的一項主要挑戰(zhàn):部分MRI模態(tài)的缺失(本文將范圍限定為 在訓練期間可以使用

    2024年01月19日
    瀏覽(24)
  • OSFormer: One-Stage Camouflaged Instance Segmentation with Transformers

    OSFormer: One-Stage Camouflaged Instance Segmentation with Transformers

    地址:https://arxiv.org/pdf/2207.02255.pdf 1. 摘要 ????OSFormer為基于transformer的偽裝實例分割(CIS)框架,有兩個關鍵設計,首先是位置敏感transformer(LST),通過【位置引導查詢】和【混合卷積前向傳播網絡】獲得定位標簽和實例級參數(shù);第二,開發(fā)粗糙到精細融合模塊(CFF)合并來

    2024年02月12日
    瀏覽(29)
  • 【論文閱讀】DeepVO: Towards End-to-End Visual Odometry with Deep Recurrent Convolutional Neural Networks

    【論文閱讀】DeepVO: Towards End-to-End Visual Odometry with Deep Recurrent Convolutional Neural Networks

    相較于傳統(tǒng)的視覺里程計,端到端的方法可以認為是把特征提取、匹配、位姿估計等模塊用深度學習模型進行了替代。不同于那種用深度學習模型取代里程計框架一部分的算法,端到端的視覺里程計是直接將整個任務替換為深度學習,輸入依然是圖像流,結果也依然是位姿,

    2024年03月18日
    瀏覽(30)
  • Divide and Conquer: 3D Point Cloud Instance Segmentation With Point-Wise Binarization

    Divide and Conquer: 3D Point Cloud Instance Segmentation With Point-Wise Binarization

    點云上的實例分割對于三維場景理解至關重要。大多數(shù)最先進的方法采用距離聚類,這通常是有效的,但在對具有相同語義標簽的相鄰對象進行分割時表現(xiàn)不佳(特別是當它們共享相鄰點時)。由于偏移點分布不均勻,這些現(xiàn)有方法幾乎無法聚類所有實例點。為此,我們設計

    2024年02月20日
    瀏覽(27)
  • 【視覺SLAM】An Improved ORB-SLAM2 in Dynamic Scene with Instance Segmentation

    【視覺SLAM】An Improved ORB-SLAM2 in Dynamic Scene with Instance Segmentation

    Cite: H. Qian and P. Ding.An Improved ORB-SLAM2 in Dynamic Scene with Instance Segmentation[C].2019 Workshop on Research, Education and Development of Unmanned Aerial Systems (RED UAS).Cranfield, UK. 2019:185-191. Keyword: 特征提取,圖像運動分析,圖像分割,移動機器人,姿勢估計,機器人視覺,SLAM (機器人) 為了提高動態(tài)

    2024年02月01日
    瀏覽(15)
  • 【論文筆記】Scene Reconstruction From 4D Radar Data with GAN and Diffusion

    【論文筆記】Scene Reconstruction From 4D Radar Data with GAN and Diffusion

    原文鏈接:https://kth.diva-portal.org/smash/get/diva2:1799731/FULLTEXT01.pdf 本文使用深度生成模型(DGM)實現(xiàn)以4D雷達為條件的圖像生成,以提供雷達數(shù)據(jù)的另一可視化方法并增強可解釋性。 實驗中的雷達和RGB相機固定在路面上方并經過時空同步。雷達和圖像的數(shù)據(jù)對會作為網絡的訓練數(shù)

    2024年02月03日
    瀏覽(17)
  • 【論文閱讀】A Comparative Study on Camera-Radar Calibration Methods

    綜述文 compare three types of the calibration methods presented in previous studies on fusing camera and radar in terms of calibration accuracy. Experimental results show that one type of the methods is not appropriated to the camera-radar calibration, and the methods belonging to the other types provide quite similar accuracy. ADAS:advanced driver assist

    2024年02月05日
    瀏覽(22)
  • 2023 Mask R-CNN 改進:DynaMask: Dynamic Mask Selection for Instance Segmentation 論文筆記

    2023 Mask R-CNN 改進:DynaMask: Dynamic Mask Selection for Instance Segmentation 論文筆記

    寫在前面 ??本周更新的第二篇論文閱讀,2023年每周一篇博文,還剩5篇未補,繼續(xù)加油~ 論文地址:DynaMask: Dynamic Mask Selection for Instance Segmentation 代碼地址:https://github.com/lslrh/DynaMask 收錄于:CVPR 2023 歡迎關注,主頁更多干貨,持續(xù)輸出中~ ??一般的實例分割通常采用固定

    2024年02月01日
    瀏覽(50)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包