国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

基于3D點(diǎn)云的小目標(biāo)檢測學(xué)習(xí)筆記

這篇具有很好參考價(jià)值的文章主要介紹了基于3D點(diǎn)云的小目標(biāo)檢測學(xué)習(xí)筆記。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

一、與圖像相比,基于點(diǎn)云的目標(biāo)檢測一直面臨著一些挑戰(zhàn)

1、非結(jié)構(gòu)化數(shù)據(jù):點(diǎn)云作為場景中點(diǎn)的位置具有稀疏和非結(jié)構(gòu)化的性質(zhì),因此它們的密度和數(shù)量都隨著場景中對象而變化。

2、不變性排列:點(diǎn)云本質(zhì)上是一長串點(diǎn)(nx3矩陣,其中n是點(diǎn)數(shù))。 在幾何上,點(diǎn)的順序不影響它在底層矩陣結(jié)構(gòu)中的表示方式,例如, 相同的點(diǎn)云可以由兩個(gè)完全不同的矩陣表示。

3、實(shí)時(shí)性要求:由于自動(dòng)駕駛汽車需要非??焖俚刈龀龇磻?yīng),因此必須實(shí)時(shí)執(zhí)行物體檢測。這意味著檢測網(wǎng)絡(luò)必須在兩次掃描之間的時(shí)間間隔內(nèi)提供結(jié)果。

4、點(diǎn)云數(shù)量上的變化:在圖像中,像素的數(shù)量是一個(gè)給定的常數(shù),取決于相機(jī)。 然而,點(diǎn)云的數(shù)量可能會(huì)有很大的變化,這取決于各種傳感器。

二、基于3D點(diǎn)云的目標(biāo)檢測概述

  1. 檢測步驟:

(1)數(shù)據(jù)表示:存在兩種主要的數(shù)據(jù)表示方法:將點(diǎn)云轉(zhuǎn)換為“體素”、“柱子”或“平截頭體”或基于投影(鳥瞰圖)等結(jié)構(gòu),或者直接處理點(diǎn)云原始數(shù)據(jù)。

(2)特征提?。?/span>最常用的特征類型是①局部特征②全局特征③場景特征

逐點(diǎn)特征提取器 Point-wise feature extractors

處理原始點(diǎn)云,PointNet、PointNet++ ,精度高、內(nèi)存需求高、計(jì)算復(fù)雜度高

分段特征提取器 Segment-wise feature extractors

處理體素特征, VoxelNet,實(shí)時(shí)性好

(3)基于模型的檢測:提取特征后,需要一個(gè)檢測網(wǎng)絡(luò)來生成上下文特征(例如對象類、邊界框)并最終輸出模型預(yù)測?;跈z測器網(wǎng)絡(luò)架構(gòu),可用類型大致可分為兩類:①兩步法: R-CNN、Faster R-CNN 或 PointRCNN 、②一步法:YOLO 或 SSD

一步法目標(biāo)檢測器在一個(gè)步驟中執(zhí)行建議區(qū)域、分類和邊界框回歸,這使得它們明顯更快,因此更適合實(shí)時(shí)應(yīng)用。但在許多情況下,兩步法檢測器往往會(huì)獲得更好的準(zhǔn)確度。

三、計(jì)算機(jī)視覺小目標(biāo)檢測概述

1、小目標(biāo)的定義

(1)基于相對尺度:例如①目標(biāo)邊界框的寬高與圖像的寬高比例小于一定值,較為通用的比例值為0.1;②目標(biāo)邊界框面積與圖像面積的比值開方小于一定值,較為通用的值為0.03;③根據(jù)目標(biāo)實(shí)際覆蓋像素與圖像總像素之間比例來對小目標(biāo)進(jìn)行定義。

(2)基于絕對尺度:目前最為通用的定義來自于目標(biāo)檢測領(lǐng)域的通用數(shù)據(jù)集——MS COCO數(shù)據(jù)集,將小目標(biāo)定義為分辨率小于32像素×32像素的目標(biāo)。

2、小目標(biāo)檢測面對的難題

(1) 可利用特征少

(2) 定位精度要求高

(3) 現(xiàn)有數(shù)據(jù)集中小目標(biāo)占比少

(4) 樣本不均衡問題

(5) 小目標(biāo)聚集問題

(6) 網(wǎng)絡(luò)結(jié)構(gòu)原因

3、小目標(biāo)檢測研究思路

(1)數(shù)據(jù)增強(qiáng):提升小目標(biāo)檢測性能的最簡單和有效的方法,通過不同的數(shù)據(jù)增強(qiáng)策略可以擴(kuò)充訓(xùn)練數(shù)據(jù)集的規(guī)模,豐富數(shù)據(jù)集的多樣性,從而增強(qiáng)檢測模型的魯棒性和泛化能力。增強(qiáng)方法有:復(fù)制增強(qiáng)、自適應(yīng)采樣、尺度匹配、縮放與拼接、自學(xué)習(xí)數(shù)據(jù)增強(qiáng)。

數(shù)據(jù)增強(qiáng)這一策略雖然在一定程度上解決了小目標(biāo)信息量少、缺乏外貌特征和紋理等問題,有效提高了網(wǎng)絡(luò)的泛化能力,在最終檢測性能上獲得了較好的效果,但同時(shí)帶來了計(jì)算成本的增加。而且在實(shí)際應(yīng)用中,往往需要針對目標(biāo)特性做出優(yōu)化,設(shè)計(jì)不當(dāng)?shù)臄?shù)據(jù)增強(qiáng)策略可能會(huì)引入新的噪聲,損害特征提取的性能,這也給算法的設(shè)計(jì)帶來了挑戰(zhàn)。

(2)多尺度學(xué)習(xí):小目標(biāo)同時(shí)需要深層語義信息與淺層表征信息,而多尺度學(xué)習(xí)將這兩種相結(jié)合,是一種提升小目標(biāo)檢測性能的有效策略。早期方法:使用不同大小的卷積核通過不同的感受野大小來獲取不同尺度的信息,計(jì)算復(fù)雜被棄用。目前使用的四種方法:①圖像金字塔、②利用較淺層的特征圖來檢測較小的目標(biāo),而利用較深層的特征圖來檢測較大的目標(biāo)、③多尺度融合網(wǎng)絡(luò)、④特征金字塔FPN(Feature Pyramid network)

多尺度特征融合同時(shí)考慮了淺層的表征信息和深層的語義信息,有利于小目標(biāo)的特征提取,能夠有效地提升小目標(biāo)檢測性能。然而,現(xiàn)有多尺度學(xué)習(xí)方法在提高檢測性能的同時(shí)也增加了額外的計(jì)算量,并且在特征融合過程中難以避免干擾噪聲的影響,這些問題導(dǎo)致了基于多尺度學(xué)習(xí)的小目標(biāo)檢測性能難以得到進(jìn)一步提升。

(3)上下文學(xué)習(xí):在真實(shí)世界中,“目標(biāo)與場景”和“目標(biāo)與目標(biāo)”之間通常存在一種共存關(guān)系,通過利用這種關(guān)系將有助于提升小目標(biāo)的檢測性能。通過對上下文進(jìn)行適當(dāng)?shù)慕?梢蕴嵘繕?biāo)檢測性能,尤其是對于小目標(biāo)這種外觀特征不明顯的目標(biāo):基于隱式上下文特征學(xué)習(xí)基于顯式上下文推理的目標(biāo)檢測。

基于上下文學(xué)習(xí)的方法充分利用了圖像中與目標(biāo)相關(guān)的信息,能夠有效提升小目標(biāo)檢測的性能。但是,已有方法沒有考慮到場景中的上下文信息可能匱乏的問題,同時(shí)沒有針對性地利用場景中易于檢測的結(jié)果來輔助小目標(biāo)的檢測。未來的研究方向可以從以下兩個(gè)角度出發(fā):(1)構(gòu)建基于類別語義池的上下文記憶模型,通過利用歷史記憶的上下文來緩解當(dāng)前圖像中上下文信息匱乏的問題;(2)基于圖推理的小目標(biāo)檢測,通過圖模型和目標(biāo)檢測模型的結(jié)合來針對性地提升小目標(biāo)的檢測性能。

(4)生成對抗學(xué)習(xí):通過將低分辨率小目標(biāo)的特征映射成與高分辨率目標(biāo)等價(jià)的特征,從而達(dá)到與尺寸較大目標(biāo)同等的檢測性能:一種有效的方法是通過結(jié)合生成對抗網(wǎng)絡(luò)(Generative adversarial network, GAN)來提高小目標(biāo)的分辨率,縮小小目標(biāo)與大/中尺度目標(biāo)之間的特征差異,增強(qiáng)小目標(biāo)的特征表達(dá),進(jìn)而提高小目標(biāo)檢測的性能。

基于生成對抗模型的目標(biāo)檢測算法通過增強(qiáng)小目標(biāo)的特征信息,可以顯著提升檢測性能。同時(shí),利用生成對抗模型來超分小目標(biāo)這一步驟無需任何特別的結(jié)構(gòu)設(shè)計(jì),能夠輕易地將已有的生成對抗模型和檢測模型相結(jié)合。但是,目前依舊面臨兩個(gè)無法避免的問題:(1)生成對抗網(wǎng)絡(luò)難以訓(xùn)練,不易在生成器和鑒別器之間取得好的平衡;(2)生成器在訓(xùn)練過程中產(chǎn)生樣本的多樣性有限,訓(xùn)練到一定程度后對于性能的提升有限。

(5)無錨機(jī)制:現(xiàn)有的錨框設(shè)計(jì)難以獲得平衡小目標(biāo)召回率與計(jì)算成本之間的矛盾,而且這種方式導(dǎo)致了小目標(biāo)的正樣本與大目標(biāo)的正樣本極度不均衡,使得模型更加關(guān)注于大目標(biāo)的檢測性能,從而忽視了小目標(biāo)的檢測。極端情況下,設(shè)計(jì)的錨框如果遠(yuǎn)遠(yuǎn)大于小目標(biāo),那么小目標(biāo)將會(huì)出現(xiàn)無正樣本的情況。小目標(biāo)正樣本的缺失,將使得算法只能學(xué)習(xí)到適用于較大目標(biāo)的檢測模型。此外,錨框的使用引入了大量的超參,比如錨框的數(shù)量、寬高比和大小等,使得網(wǎng)絡(luò)難以訓(xùn)練,不易提升小目標(biāo)的檢測性能。一種擺脫錨框機(jī)制的思路是將目標(biāo)檢測任務(wù)轉(zhuǎn)換為關(guān)鍵點(diǎn)的估計(jì),即基于關(guān)鍵點(diǎn)的目標(biāo)檢測方法。基于關(guān)鍵點(diǎn)的目標(biāo)檢測方法主要包含兩個(gè)大類:基于角點(diǎn)的檢測和基于中心的檢測。①基于角點(diǎn)的檢測器通過對從卷積特征圖中學(xué)習(xí)到的角點(diǎn)分組來預(yù)測目標(biāo)邊界框。②基于中心預(yù)測的目標(biāo)檢測框架,稱為CenterNet。③代表點(diǎn)(RepPoints)檢測方法,這種方法能夠自動(dòng)學(xué)習(xí)目標(biāo)的空間信息和局部語義特征,一定程度上提升了小目標(biāo)檢測的精度。④基于全卷積的單級目標(biāo)檢測器FCOS(Fully convolutional one?stage),避免了基于錨框機(jī)制的方法中超參過多、難以訓(xùn)練的問題。

(6)其他優(yōu)化策略。

4、未來可能的關(guān)注點(diǎn):

(1)特征融合方面?,F(xiàn)有的方法通常通過融合深度神經(jīng)網(wǎng)絡(luò)中同層的多尺度特征來提升小目標(biāo)的特征表達(dá)能力。盡管這種方式一定程度提升了小目標(biāo)的檢測性能,但是在特征融合的過程中沒有考慮到語義間隔和噪聲干擾的問題。因此,如何消除特征融合中的語義間隔和噪聲干擾問題是未來的一個(gè)研究方向。

(2)上下文學(xué)習(xí)方面。盡管上下文在目標(biāo)檢測中已經(jīng)得到了充分的重視,并在眾多目標(biāo)檢測算法中得到了充分利用。但是,場景中并不是所有上下文信息都是有價(jià)值的,無效的上下文信息將可能破壞目標(biāo)區(qū)域的原始特征,如何從圖像中挖掘有利于提升小目標(biāo)區(qū)域特征表示的上下文信息是未來的一個(gè)研究方向。此外,現(xiàn)有的上下文建模方法對于不同尺度目標(biāo)是同等對待,并沒有針對小目標(biāo)而做相應(yīng)的設(shè)計(jì)。因此,如何在檢測模型中利用易于檢測目標(biāo)來輔助小目標(biāo)的檢測是未來的一個(gè)重要研究方向。

(3)超分辨率重構(gòu)方面。盡管已有一些方法通過生成對抗的方式來提升小目標(biāo)的特征,以此獲得與大目標(biāo)等價(jià)的特征表示,并取得了一定的成效。但是,這一類方法研究還尚少,仍有較大的研究空間。超分辨率重構(gòu)是一種最直接的、可解釋的提升小目標(biāo)檢測性能的方法。如何將超分辨率重構(gòu)中先進(jìn)技術(shù)與目標(biāo)檢測技術(shù)深度結(jié)合是未來的一個(gè)可行研究思路。

四、目標(biāo)檢測相關(guān)論文:

(1)目前單階段網(wǎng)絡(luò)結(jié)構(gòu)的研究還不是很多,3D目標(biāo)檢測的最終要求要實(shí)現(xiàn)實(shí)時(shí)性能,提高速度,實(shí)現(xiàn)一種單階段網(wǎng)絡(luò)結(jié)構(gòu)是未來研究的重點(diǎn)。

(2)因?yàn)閿?shù)據(jù)集有限,如何使用弱監(jiān)督來訓(xùn)練網(wǎng)絡(luò)也可能是未來研究的方向。

(3)如何更加有效地利用融合不同傳感器獲得的信息一直以來都是研究的重點(diǎn)。

(4)如何提高小目標(biāo)檢測精度是一個(gè)值得關(guān)注和思考的方向。

《Structure Aware Single-stage 3D Object Detection from Point Cloud》

《Self-training for Unsupervised Domain Adaptation on 3D ObjectDetection》

《HVPR: Hybrid Voxel-Point Representation for Single-stage 3D Object Detection》

《LiDAR R-CNN: An Efficient and Universal 3D Object Detector》

《SE-SSD: Self-Ensembling Single-Stage Object Detector From Point Cloud》

《PVGNet: A Bottom-Up One-Stage 3D Object Detector with Integrated Multi-Level Features》

3D Object Detection with Pointformer

《Deep Learning for 3D Point Clouds A Survey》

《A Survey on 3D Object Detection Methods for Autonomous Driving Applications》

PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation

《PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space》

五、基于原始點(diǎn)的特征提?。篜ointNet、PointNet++:

  1. PointNet

(1)輸入數(shù)據(jù):原始點(diǎn)云{Pi| i = 1, ..., n};Pi=(x, y, z)

  • 無序性,點(diǎn)云是一個(gè)點(diǎn)集,沒有固定的順序;

  • 與鄰域點(diǎn)又相互作用,點(diǎn)云中的個(gè)體不是獨(dú)立的,與周圍的點(diǎn)具相關(guān),具有局域特征;

  • 剛體旋轉(zhuǎn)、平移不變性,旋轉(zhuǎn)和平移不會(huì)改變點(diǎn)云的分類、分割結(jié)果。

(2)模型:

直接將點(diǎn)云作為輸入,并輸出整個(gè)輸入的類標(biāo)簽或輸入的每個(gè)點(diǎn)的每個(gè)點(diǎn)段/部分標(biāo)簽。在初始階段,每個(gè)點(diǎn)都是相同和獨(dú)立地處理的。在基本設(shè)置中,每個(gè)點(diǎn)只用它的三個(gè)坐標(biāo)(x、y、z)來表示??梢酝ㄟ^計(jì)算法線和其他局部或全局特征來添加其他維度。

核心函數(shù): max pooling

Effectively the network learns a set of optimization functions/criteria that select interesting or informative points of the point cloud and encode the reason for their selection. The final fully connected layers of the network aggregate these learnt optimal values into the global descriptor for the entire shape as mentioned above (shape classifification) or are used to predict per point labels (shape segmentation).

網(wǎng)絡(luò)的學(xué)習(xí)內(nèi)容:選擇點(diǎn)云中的信息點(diǎn)并且編碼選擇的原因

完全連接層:將學(xué)到的最優(yōu)值聚合到全局描述符做形狀分類或分割

處理過程:

點(diǎn)云3d目標(biāo)檢測,學(xué)習(xí),深度學(xué)習(xí),計(jì)算機(jī)視覺,Powered by 金山文檔

模塊一: max pooling(作為對稱函數(shù)聚合所有點(diǎn)的信息)

對稱函數(shù):在對稱函數(shù)中,函數(shù)的輸出值不隨輸入變數(shù)的排列而改變。從函數(shù)的形式中可以看出若輸入變數(shù)排列后,方程式不會(huì)改變。

點(diǎn)云3d目標(biāo)檢測,學(xué)習(xí),深度學(xué)習(xí),計(jì)算機(jī)視覺,Powered by 金山文檔

用多層感知器網(wǎng)絡(luò)近似h,g用單變量函數(shù)和最大池化函數(shù)的組成。輸出形成了一個(gè)向量[f1,...,fK],它是輸入集的全局簽名。

模塊二:Local and Global Information Aggregation

在計(jì)算了全局點(diǎn)云特征向量后,我們通過將全局特征與每個(gè)點(diǎn)特征連接起來,將其反饋給每個(gè)點(diǎn)特征。然后,我們根據(jù)結(jié)合的點(diǎn)特征提取新的每個(gè)點(diǎn)特征——這一次,每個(gè)點(diǎn)特征同時(shí)了解局部和全局信息。

模塊三: Joint Alignment Network(對齊輸入點(diǎn)和點(diǎn)特征)

剛性變換:定義為不改變?nèi)魏蝺牲c(diǎn)之間距離的變換,一般這種轉(zhuǎn)換只包括平移和旋轉(zhuǎn)。

如果點(diǎn)云經(jīng)歷了一定的幾何變換,如剛性變換,則點(diǎn)云的語義標(biāo)記必須是不變的。點(diǎn)集學(xué)習(xí)到的表示對這些變換也是不變的,解決方案:在特征提取之前將所有輸入集對齊到一個(gè)規(guī)范空間。

通過一個(gè)小網(wǎng)絡(luò)(圖2中的T-net)來預(yù)測一個(gè)仿射變換矩陣,并將此轉(zhuǎn)換直接應(yīng)用于輸入點(diǎn)的坐標(biāo)。

為了降低優(yōu)化難度,約束特征變換矩陣為接近正交矩陣:

點(diǎn)云3d目標(biāo)檢測,學(xué)習(xí),深度學(xué)習(xí),計(jì)算機(jī)視覺,Powered by 金山文檔

A為由一個(gè)小網(wǎng)絡(luò)預(yù)測的特征對齊矩陣

(3)輸出

語義分割:Our model will output n × m scores for each of the n points and each of the m semantic subcategories.

目標(biāo)分類:Our proposed deep network outputs k scores for all the k candidate classes.

該網(wǎng)絡(luò)可以通過一組稀疏的關(guān)鍵點(diǎn)來總結(jié)一個(gè)輸入點(diǎn)云,對輸入點(diǎn)的小擾動(dòng)或異常值、缺失數(shù)據(jù)有著很好的魯棒性。

詳細(xì)解釋:

https://blog.csdn.net/u014636245/article/details/82755966

PointNet在當(dāng)時(shí)除了有出眾的結(jié)果,相比于其他網(wǎng)絡(luò)還有兩個(gè)顯著的優(yōu)勢:

(1)Pointnet更輕量并且執(zhí)行速度快,PointNet相比于其他網(wǎng)絡(luò)減少88%浮點(diǎn)運(yùn)算。

(2)PointNet對數(shù)據(jù)的缺失更魯棒,PointNet在丟失50%的數(shù)據(jù)后,僅僅減少了2%的精度。這說明PointNet學(xué)會(huì)了如何去挑選感興趣的點(diǎn)(關(guān)鍵點(diǎn))。

PointNet還存在明顯的缺點(diǎn):

(1)由于PointNet網(wǎng)絡(luò)只考慮了全局特征,直接暴力地將所有的點(diǎn)最大池化為了一個(gè)全局特征,因此丟失了每個(gè)點(diǎn)的局部信息,局部點(diǎn)與點(diǎn)之間的聯(lián)系并沒有被網(wǎng)絡(luò)學(xué)習(xí)到。在分類和物體的Part Segmentation中,這樣的問題還可以通過中心化物體的坐標(biāo)軸來部分地解決,但在場景分割中,這就導(dǎo)致效果十分一般了。

(2)雖然PointNet加入了T-Net實(shí)現(xiàn)了網(wǎng)絡(luò)的旋轉(zhuǎn)平移不變性,但相比于CNN實(shí)際效果仍然有限。

  1. PointNet++

PointNet提取特征的方式是對所有點(diǎn)云數(shù)據(jù)提取一個(gè)全局特征。顯然,這會(huì)帶來很大的局限性,這也和目前流行的能夠逐層提取局部特征的CNN方式不一樣。CNN通過分層不斷地使用卷積核掃描圖像上的像素并做內(nèi)積,使得越到后面的特征圖感受野越大,同時(shí)每個(gè)像素包含的信息也越多。受CNN的啟發(fā),作者借鑒了CNN的多層感受野的思想,提出了PointNet++,它能夠在不同尺度提取局部特征,通過多層網(wǎng)絡(luò)結(jié)構(gòu)得到更深層次的特征。

點(diǎn)云3d目標(biāo)檢測,學(xué)習(xí),深度學(xué)習(xí),計(jì)算機(jī)視覺,Powered by 金山文檔

(1)改進(jìn)特征提取方法:PointNet++采用了分層抽取特征的思想,把每一次特征提取稱為Set Abstraction。Set Abstraction又分為三部分,分別是采樣層、分組層、特征提取層。采樣層通過FPS(farthest point sampling)最遠(yuǎn)點(diǎn)采樣算法,提取點(diǎn)云中的部分key point。分組層以key point為中心,在某個(gè)范圍內(nèi)尋找最近個(gè)k近鄰點(diǎn)組成group。特征提取層是將這k個(gè)點(diǎn)通過PointNet的核心網(wǎng)絡(luò)進(jìn)行特征提取。這樣每一層得到的中心點(diǎn)都是上一層中心點(diǎn)的子集,并且隨著層數(shù)加深,中心點(diǎn)的個(gè)數(shù)越來越少,但是每一個(gè)中心點(diǎn)包含的信息越來越多。

(2)解決點(diǎn)云密度不均勻問題:由于雷達(dá)傳感器的成像特點(diǎn),離傳感器越近的區(qū)域點(diǎn)云更密集,越遠(yuǎn)的地方約稀疏。所以,如果在Group的時(shí)候通過在固定范圍選取的固定個(gè)數(shù)的近鄰點(diǎn)是不合適的。為此PointNet++提出了兩種 “自適應(yīng)” 點(diǎn)云稠密稀疏的方案,分別是:多尺度組合(multi-scale grouping, MSG) 方式、多分辨率組合(multi-resolution grouping, MRG) 方式。

(3)Set Segmentation

采樣層最遠(yuǎn)點(diǎn)采樣算法(farthest point sampling, FPS),先選定部分點(diǎn)作為局部區(qū)域的中心,通過設(shè)定需要采樣的點(diǎn)云數(shù)量來控制模型的計(jì)算量,再通過后續(xù)網(wǎng)絡(luò)學(xué)習(xí)點(diǎn)的局部特征。該算法相對于隨機(jī)采樣算法來說,能夠更均勻地覆蓋整個(gè)采樣空間。

組合層:為了提取一個(gè)點(diǎn)的局部特征,作者首先將點(diǎn)云數(shù)據(jù)中的一個(gè)點(diǎn)的局部區(qū)域定義為由其周圍給定半徑劃出的球形空間內(nèi)所包含的點(diǎn)集。組合層的作用就是,將采樣層選出的每一個(gè)點(diǎn)的局部區(qū)域中的所包含的點(diǎn)聚集起來,方便后續(xù)網(wǎng)絡(luò)學(xué)習(xí)每個(gè)點(diǎn)的局部特征。

特征提取層:PointNet是一個(gè)基于點(diǎn)云數(shù)據(jù)的特征提取網(wǎng)絡(luò),它可以對組合層給出的各個(gè)局部進(jìn)行特征提取來得到局部特征。值得注意的是,雖然組合層給出的各個(gè)局部區(qū)域可能由不同數(shù)量的點(diǎn)云構(gòu)成,但是通過PointNet后都能得到維度一致的特征,這是由由max函數(shù)的特性決定的。

(4)非均勻采樣密度下的魯棒特征學(xué)習(xí)

①多尺度組合(multi-scale grouping, MSG):

多尺度組合方式的做法相對來說比較直接,它為每個(gè)中心點(diǎn)設(shè)定不同尺度的半徑,使其學(xué)習(xí)到不同尺度的局部特征,并最后將它們串聯(lián)在一起。由于需要對每個(gè)局部的每個(gè)尺度進(jìn)行特征提取,其計(jì)算量的增加也是很顯著的。

②多分辨率組合(multi-resolution grouping, MRG)

為了解決多尺度組合(MSG) 計(jì)算量大的問題,作者提出了多分辨率組合(MRG) 的方式。該方法由兩部分組成,第一部分先對局部區(qū)域內(nèi)的點(diǎn)集劃分為更小的區(qū)域,在小區(qū)域上進(jìn)行特征學(xué)習(xí)后,再次通過特征學(xué)習(xí)網(wǎng)絡(luò)學(xué)習(xí)更高維度的特征。第二部分則是直接對局部區(qū)域的所有原始點(diǎn)云數(shù)據(jù)進(jìn)行特征學(xué)習(xí)。然后再將兩部分學(xué)習(xí)得到的特征進(jìn)行拼接。

詳細(xì)解釋:

https://blog.csdn.net/u013086672/article/details/105890875(理論)

https://zhuanlan.zhihu.com/p/266324173(代碼)文章來源地址http://www.zghlxwxcb.cn/news/detail-659505.html

到了這里,關(guān)于基于3D點(diǎn)云的小目標(biāo)檢測學(xué)習(xí)筆記的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包