論文:fastpillars.pdf https://arxiv.org/abs/2302.02367
作者:東南大學,美團
代碼:https://github.com/StiphyJay/FastPillars (暫未開源)
講解:https://mp.weixin.qq.com/s/ocNH2QBoD2AeK-rLFK6wEQ
PointPillars簡單地利用max-pooling操作來聚合所有在支柱中使用點特征,這會大量減少本地細粒度信息,尤其會降低性能對于小物體?;谔卣鹘鹱炙W(wǎng)絡(FPN [22]), PointPillars直接融合多尺度特征跨距為1×、2×、4×,但各層之間缺乏足夠的特征交互作用。
Fastpillars提出了一種簡單但有效的Max-and-Attention pillar encoding(MAPE)模塊。MAPE幾乎無需額外的耗時(僅4ms)就能提高每個pillar特征的表示能力,能夠提升小目標的檢測精度;設計了一個緊湊的全卷積主干網(wǎng)絡CRVNet,它具有競爭性的特征學習能力和推理速度,而不需要稀疏卷積。
模塊介紹
Pillar encoder: 我們提出一個簡單的但是有效的最大和注意力柱編碼(MAPE)模塊,自動學習局部幾何模式幾乎沒有額外的延遲(4毫秒)。MAPE模塊將重要的局部特征整合在每個支柱中,大大提高了小物體的準確性。
feature extraction:為增強模型的表示能力,減少計算量為了降低機載部署的延遲,我們設計了一種緊湊高效的骨干網(wǎng),稱為CRVNet(跨階段-父系repvgg風格網(wǎng)絡)。我們畫我們從CSP (cross-stage-Patrial)結(jié)構和重新參數(shù)化的RepVGG網(wǎng)絡中得到啟發(fā),并提出一個緊湊的網(wǎng)絡,同時保持強大的特征提取能力.
特征融合塊,通過分層融合不同層次和接受域的特征來豐富語義特征
回歸模塊,我們采用了一種高效的基于中心的頭向分別對目標的分數(shù)、維度、位置、旋轉(zhuǎn)和盒交比聯(lián)合(IOU)信息進行回歸。添加了一個IoU分支來預測預測框和地面真實框之間的3D IoU。
訓練參數(shù)
-
優(yōu)化器:one-cycel
-
Learning rete: 0.0001 40%個epch開始衰減
-
激活函數(shù):leaky relu
-
檢測范圍:[-54,-54,-5,54,54,3]
-
Voxel size: [0.15, 0.15, 1]
數(shù)據(jù)增強
-
Flip: 隨即沿X、Y軸翻轉(zhuǎn)
-
旋轉(zhuǎn):隨即繞Z旋轉(zhuǎn),[- 45, 45]
-
平移translated:[-0.5m,0.5m] (沿哪個維度???)
-
縮放:全局縮放[0.95,1.05]文章來源:http://www.zghlxwxcb.cn/news/detail-435398.html
-
copy-paste文章來源地址http://www.zghlxwxcb.cn/news/detail-435398.html
代碼復現(xiàn)
#MAPE模塊
#====================by:liangyanyu=========================
if self.mape:
x_mape_max = self.maxpooling(x.permute(0, 2, 1))
x_mape_max = x_mape_max.permute(0,2,1)
x_attention = self.attention(x)
x_attention = torch.sum((x * x_attention) / torch.clamp(torch.sum(x_attention, dim=1, keepdim=True), min=1e-6), dim=1,keepdim=True) # [2,20,64] / [2,1, 64]==>[2,20,64] ==> [2,1,64]
x_out = (x_mape_max + x_attention) / 2
if self.last_vfe:
return x_out
else:
x_repeat = x_out.repeat(1, 20, 1)
x_concatenated = torch.cat([x, x_repeat],dim=2)
return x_concatenated
#=========================================================
到了這里,關于【3D目標檢測】Fastpillars-2023論文的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!