国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【3D目標檢測】Fastpillars-2023論文

這篇具有很好參考價值的文章主要介紹了【3D目標檢測】Fastpillars-2023論文。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

論文:fastpillars.pdf https://arxiv.org/abs/2302.02367

作者:東南大學,美團

代碼:https://github.com/StiphyJay/FastPillars (暫未開源)

講解:https://mp.weixin.qq.com/s/ocNH2QBoD2AeK-rLFK6wEQ

PointPillars簡單地利用max-pooling操作來聚合所有在支柱中使用點特征,這會大量減少本地細粒度信息,尤其會降低性能對于小物體?;谔卣鹘鹱炙W(wǎng)絡(FPN [22]), PointPillars直接融合多尺度特征跨距為1×、2×、4×,但各層之間缺乏足夠的特征交互作用。

Fastpillars提出了一種簡單但有效的Max-and-Attention pillar encoding(MAPE)模塊。MAPE幾乎無需額外的耗時(僅4ms)就能提高每個pillar特征的表示能力,能夠提升小目標的檢測精度;設計了一個緊湊的全卷積主干網(wǎng)絡CRVNet,它具有競爭性的特征學習能力和推理速度,而不需要稀疏卷積。

【3D目標檢測】Fastpillars-2023論文

模塊介紹

Pillar encoder: 我們提出一個簡單的但是有效的最大和注意力柱編碼(MAPE)模塊,自動學習局部幾何模式幾乎沒有額外的延遲(4毫秒)。MAPE模塊將重要的局部特征整合在每個支柱中,大大提高了小物體的準確性。

【3D目標檢測】Fastpillars-2023論文

feature extraction:為增強模型的表示能力,減少計算量為了降低機載部署的延遲,我們設計了一種緊湊高效的骨干網(wǎng),稱為CRVNet(跨階段-父系repvgg風格網(wǎng)絡)。我們畫我們從CSP (cross-stage-Patrial)結(jié)構和重新參數(shù)化的RepVGG網(wǎng)絡中得到啟發(fā),并提出一個緊湊的網(wǎng)絡,同時保持強大的特征提取能力.

【3D目標檢測】Fastpillars-2023論文

特征融合塊,通過分層融合不同層次和接受域的特征來豐富語義特征

回歸模塊,我們采用了一種高效的基于中心的頭向分別對目標的分數(shù)、維度、位置、旋轉(zhuǎn)和盒交比聯(lián)合(IOU)信息進行回歸。添加了一個IoU分支來預測預測框和地面真實框之間的3D IoU。

訓練參數(shù)

  1. 優(yōu)化器:one-cycel

  2. Learning rete: 0.0001 40%個epch開始衰減

  3. 激活函數(shù):leaky relu

  4. 檢測范圍:[-54,-54,-5,54,54,3]

  5. Voxel size: [0.15, 0.15, 1]

數(shù)據(jù)增強

  1. Flip: 隨即沿X、Y軸翻轉(zhuǎn)

  2. 旋轉(zhuǎn):隨即繞Z旋轉(zhuǎn),[- 45, 45]

  3. 平移translated:[-0.5m,0.5m] (沿哪個維度???)

  4. 縮放:全局縮放[0.95,1.05]

  5. copy-paste文章來源地址http://www.zghlxwxcb.cn/news/detail-435398.html

代碼復現(xiàn)

#MAPE模塊
#====================by:liangyanyu=========================
if self.mape:
    x_mape_max = self.maxpooling(x.permute(0, 2, 1))
    x_mape_max = x_mape_max.permute(0,2,1)
    x_attention = self.attention(x)
    x_attention = torch.sum((x * x_attention) / torch.clamp(torch.sum(x_attention, dim=1, keepdim=True), min=1e-6), dim=1,keepdim=True) # [2,20,64] / [2,1, 64]==>[2,20,64] ==> [2,1,64]
    x_out = (x_mape_max + x_attention) / 2
    if self.last_vfe:
        return x_out
    else:
        x_repeat = x_out.repeat(1, 20, 1)
        x_concatenated = torch.cat([x, x_repeat],dim=2)
        return x_concatenated
#=========================================================

到了這里,關于【3D目標檢測】Fastpillars-2023論文的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • CVPR2023 | 70+目標檢測論文及代碼整理

    目標檢測是當下應用最廣的計算機視覺任務之一。本文整理了CVPR 2023 目標檢測相關論文72篇,覆蓋包括2D目標檢測、3D目標檢測、視頻目標檢測、人物交互檢測、異常檢測、偽裝目標檢測、關鍵點檢測、顯著性目標檢測、車道線檢測、邊緣檢測等10個細分任務。并且每篇論文都

    2024年02月10日
    瀏覽(28)
  • 【單目3D目標檢測】FCOS3D + PGD論文解析與代碼復現(xiàn)

    【單目3D目標檢測】FCOS3D + PGD論文解析與代碼復現(xiàn)

    本文對OpenMMLab在Monocular 3D detection領域做的兩項工作FCOS3D和PGD(也被稱作FCOS3D++)進行介紹。 在此之前,建議大家通過這篇博客:“3Dfy” A General 2D Detector: 純視覺 3D 檢測再思考,來回顧單目3D目標檢測的更多細節(jié)。 ? Wang, T, Zhu, X, Pang, J, et al. Fcos3d: Fully convolutional one-stage mono

    2024年02月02日
    瀏覽(74)
  • [論文閱讀]PillarNeXt——基于LiDAR點云的3D目標檢測網(wǎng)絡設計

    [論文閱讀]PillarNeXt——基于LiDAR點云的3D目標檢測網(wǎng)絡設計

    PillarNeXt: Rethinking Network Designs for 3D Object Detection in LiDAR Point Clouds 基于LiDAR點云的3D目標檢測網(wǎng)絡設計 論文網(wǎng)址:PillarNeXt 代碼:PillarNeXt 這篇論文\\\"PillarNeXt: Rethinking Network Designs for 3D Object Detection in LiDAR Point Clouds\\\"重新思考了用于激光雷達點云3D目標檢測的網(wǎng)絡設計。主要的貢獻

    2024年02月08日
    瀏覽(28)
  • [論文閱讀]MV3D——用于自動駕駛的多視角3D目標檢測網(wǎng)絡

    [論文閱讀]MV3D——用于自動駕駛的多視角3D目標檢測網(wǎng)絡

    Multi-View 3D Object Detection Network for Autonomous Driving 用于自動駕駛的多視角3D目標檢測網(wǎng)絡 論文網(wǎng)址:MV3D 這篇論文提出了一個多視角3D目標檢測網(wǎng)絡(MV3D),用于自動駕駛場景下高精度的3D目標檢測。主要的創(chuàng)新點有: 提出了一種緊湊的多視角表示方法來編碼稀疏的3D點云數(shù)據(jù)。該方法

    2024年02月08日
    瀏覽(24)
  • 3D目標檢測概要及VoxelNet論文和代碼解讀(1)--Pillar VFE

    3D目標檢測概要及VoxelNet論文和代碼解讀(1)--Pillar VFE

    點云和圖像都是自動駕駛中常用的傳感器數(shù)據(jù)類型,它們各自有不同的優(yōu)缺點。點云目標檢測在自動駕駛領域中有著不可替代的優(yōu)勢,尤其是在需要精準定位和避障的場景下,點云目標檢測可以為自動駕駛車輛提供更為準確和可靠的感知能力,點云的主要優(yōu)勢為: 三維信息豐

    2024年02月06日
    瀏覽(23)
  • 【論文閱讀】【3d目標檢測】Embracing Single Stride 3D Object Detector with Sparse Transformer

    【論文閱讀】【3d目標檢測】Embracing Single Stride 3D Object Detector with Sparse Transformer

    論文標題:Embracing Single Stride 3D Object Detector with Sparse Transformer 源碼地址:https://github.com/TuSimple/SST CVPR2022 文章寫得很好! 文章從2d 3d目標檢測目標的尺寸的不同入手,在2d目標檢測中確實由于圖像近大遠小的尺寸關系 存在著圖像中物體尺寸長尾的問題: 如coco數(shù)據(jù)集中,大小

    2023年04月15日
    瀏覽(25)
  • [論文閱讀]H3DNet——基于混合幾何基元的3D目標檢測

    [論文閱讀]H3DNet——基于混合幾何基元的3D目標檢測

    3D Object Detection Using Hybrid Geometric Primitives 論文網(wǎng)址:H3DNet 這篇論文提出了H3DNet,一個用于3D對象檢測的端到端神經(jīng)網(wǎng)絡。該方法的關鍵創(chuàng)新點是預測一個混合的、過完備的幾何基元集合(包括邊界框中心、面中心和邊中心),然后擬合檢測到的對象以契合這些原語及其相關特征。主

    2024年02月07日
    瀏覽(22)
  • [論文閱讀]MVX-Net——基于3D目標檢測的多模態(tài)VoxelNet

    [論文閱讀]MVX-Net——基于3D目標檢測的多模態(tài)VoxelNet

    MVX-Net: Multimodal VoxelNet for 3D Object Detection 基于3D目標檢測的多模態(tài)VoxelNet 論文網(wǎng)址:MVX-Net 這篇論文主要提出了兩種多模態(tài)融合方法,PointFusion和VoxelFusion,用于將RGB圖像特征與點云特征結(jié)合,從而提高3D目標檢測的性能。論文的主要內(nèi)容和貢獻總結(jié)如下: 提出了兩種簡單有效的多模

    2024年02月07日
    瀏覽(137)
  • [論文閱讀]MVF——基于 LiDAR 點云的 3D 目標檢測的端到端多視圖融合

    [論文閱讀]MVF——基于 LiDAR 點云的 3D 目標檢測的端到端多視圖融合

    End-to-End Multi-View Fusion for 3D Object Detection in LiDAR Point Clouds 論文網(wǎng)址:MVF 論文代碼: 這篇論文提出了一個端到端的多視角融合(Multi-View Fusion, MVF)算法,用于在激光雷達點云中進行3D目標檢測。論文的主要貢獻有兩個: 提出了動態(tài)體素化(Dynamic Voxelization)的概念。相比傳統(tǒng)的硬體素

    2024年01月23日
    瀏覽(18)
  • [論文閱讀]Voxel R-CNN——邁向高性能基于體素的3D目標檢測

    [論文閱讀]Voxel R-CNN——邁向高性能基于體素的3D目標檢測

    Voxel R-CNN: Towards High Performance Voxel-based 3D Object Detection 邁向高性能基于體素的3D目標檢測 論文網(wǎng)址:Voxel R-CNN 論文代碼:Voxel R-CNN 該論文提出了 Voxel R-CNN,這是一種基于體素的高性能 3D 對象檢測框架。作者認為,原始點的精確定位對于準確的目標檢測并不重要,粗體素粒度可

    2024年02月07日
    瀏覽(83)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包