国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN

這篇具有很好參考價(jià)值的文章主要介紹了目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

網(wǎng)上關(guān)于兩階段目標(biāo)檢測(cè)(two-stage object detection)的幾個(gè)經(jīng)典工作R-CNN,SPPNet,F(xiàn)ast R-CNN,F(xiàn)aster R-CNN的發(fā)展,各自的優(yōu)缺點(diǎn)缺乏一個(gè)比較清楚的描述,大部分文章講的比較細(xì)節(jié),雖然有助于更為詳細(xì)地了解文章,但是讓讀者在短時(shí)間內(nèi)對(duì)各個(gè)文章有一個(gè)詳細(xì)的理解。本文主要對(duì)網(wǎng)上的資料進(jìn)行整合,希望讓讀者能較快地理解幾篇文章的優(yōu)劣。

R-CNN

本節(jié)會(huì)介紹R-CNN基本流程以及文章的缺點(diǎn)。最后對(duì)其中幾個(gè)重要步驟進(jìn)行補(bǔ)充說明

基本流程

R-CNN的基本流程如下,主要的步驟如下:
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN

  1. 提取區(qū)域候選(extract region proposals):使用selective search方法提取2000個(gè)候選目標(biāo)

  2. 對(duì)每個(gè)候選目標(biāo)warp到一個(gè)固定的大小(例如224x224),主要包括直接對(duì)圖像進(jìn)行resize,或者是進(jìn)行crop,然后對(duì)空白部分進(jìn)行填充。

CNN本身實(shí)際上是能適應(yīng)不同大小的圖片輸入,但是特征最后要過fc,因此需要固定的大小。這一點(diǎn)之后在SPPNet中進(jìn)行解決

  1. 計(jì)算CNN特征(compute CNN features):用神經(jīng)網(wǎng)絡(luò)計(jì)算經(jīng)過warp的區(qū)域候選的特征圖
  2. 分類(classify regions):對(duì)提取到的特征輸入到SVM中進(jìn)行分類

可能會(huì)產(chǎn)生疑問:直接在網(wǎng)絡(luò)最后接softmax輸出分類概率不行嗎?為什么需要重新訓(xùn)練一個(gè)SVM進(jìn)行分類呢?回答:論文中說加SVM效果好?。ǖ菍?shí)際上在Fast-RCNN之后都用不上嘞!啊哈哈)

  1. 非極大值抑制(NMS,non-maximum suppression):刪除重復(fù)的候選框

  2. 位置精修(bounding box regression):使用一個(gè)回歸器(幾層fc)來修正候選框的位置

為什么直接使用selective search得到的region proposals的結(jié)果作為最終的bounding box呢?當(dāng)然是因?yàn)榻Y(jié)果不準(zhǔn)確啦,拿個(gè)網(wǎng)絡(luò)來精細(xì)調(diào)整一下位置肯定不虧,嘿嘿

以上就講完了RCNN整體的流程,最后用一張更直觀的圖來展示:
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN

補(bǔ)充內(nèi)容

選擇性搜索

這部分介紹第一個(gè)步驟中使用的提取region proposals的方法——selective search,其屬于傳統(tǒng)算法,速度很慢,這一個(gè)部分在Faster-RCNN中被替換成神經(jīng)網(wǎng)絡(luò)。下面是其具體步驟:

  1. 對(duì)圖像進(jìn)行oversegmented 的圖像分割
  2. 計(jì)算鄰近區(qū)域的相似性,包括顏色、紋理等等
  3. 合并相似性高的區(qū)域,得到更大的區(qū)域并假如到區(qū)域集合中
  4. 重復(fù)2、3過程直到圖片變成一個(gè)區(qū)域。至此得到的區(qū)域集合就是我們要的region proposals

詳細(xì)過程可以參考: https://www.jianshu.com/p/99e121c3beb8目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN

非極大值抑制

這一部分介紹第五步用到的非極大值抑制方法。selective search之后得到的候選框有2000多個(gè)!可以上一張圖看出很多框圈著同一個(gè)物體,而NMS的思想就是想保留置信度最高的框,把周圍重疊度高(交并比IoU高)的其他框給刪除,從而大大減少候選數(shù)量
詳細(xì)過程參考:https://blog.csdn.net/zouxiaolv/article/details/107400193目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN

缺點(diǎn)

觀察RCNN的整體流程我們可以看出其具有以下幾個(gè)缺點(diǎn):

  1. 提取proposals用的selective search,速度慢且很多無用的proposals
  2. 重復(fù)計(jì)算特征:每一個(gè)proposals都需要通過CNN提取特征,速度會(huì)大大減慢
  3. 需要resize操作:proposals在輸入的時(shí)候需要經(jīng)過warp操作,可能會(huì)丟失原有的結(jié)構(gòu)信息
  4. 串行結(jié)構(gòu):先對(duì)特征進(jìn)行分類,然后再對(duì)bounding box位置進(jìn)行回歸。這個(gè)問題本質(zhì)上是因?yàn)榉诸惖臅r(shí)候需要重新訓(xùn)練一個(gè)SVM,而回歸bounding box坐標(biāo)是使用fc,二者不能共用,導(dǎo)致速度比較慢

SPPNet(修改CNN特征提取過程)

RCNN最主要的時(shí)間開銷實(shí)際上都花在了對(duì)2000個(gè)proposals進(jìn)行特征提取的地方。而SPPNet主要解決這個(gè)問題。

主要流程

SPPNet的主要流程如下:
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN

可以看到相較于RCNN,其主要的修改部分有兩個(gè):

  1. 從原來需要多次特征提取變成一次特征提取
  2. 為了解決上一點(diǎn)帶來的“不同感興趣區(qū)域(RoI,region of interest)對(duì)應(yīng)特征的維度不同,而不能使用同一個(gè)fc”的問題,提出了spatial pyramid pooling(SPP)

具體的流程從下圖中第二行(RCNN)變成了第三行(SPPNet),也就是從“warp→特征提取”變成了“特征提取→SPP”。
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN

SPP

上述主要修改的兩點(diǎn)中,第一點(diǎn)將多次CNN提取特征變?yōu)橐淮芜@個(gè)過程比較直觀,不再詳述。因此主要對(duì)第二點(diǎn):SPP層進(jìn)行講解。SPP層的目標(biāo)是為了將不同分辨率的特征都能映射到相同的維度上以供后續(xù)fc進(jìn)行分類。它的思路如下圖:
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN
提出了多個(gè)尺度的池化層,來提取不同粒度的特征。對(duì)于任意分辨率的特征,會(huì)將它們劃分成相同數(shù)目的小塊進(jìn)行max pooling。例如圖中所示,不管特征圖大小怎樣,都會(huì)劃分成16、4、1個(gè)小塊,于是輸出是恒定為(16+4+1)*256維的特征,并將其送到fc中進(jìn)行分類。

下圖展示了一個(gè)例子:
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN
左圖是輸入圖片和對(duì)應(yīng)的經(jīng)過selective search選擇出來的一個(gè)region proposal,右圖是將這個(gè)proposal映射到特征圖上的位置。
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN
上圖就是對(duì)其按照不同的區(qū)域劃分進(jìn)行spp的結(jié)果,得到特征之后會(huì)把這些特征concat之后送到最后的fc中(最后這一步圖中沒畫出來)。

優(yōu)點(diǎn)

SSPNet有以下兩個(gè)優(yōu)點(diǎn):

  1. 讓最后的分類器能適應(yīng)任何尺寸的proposals:避免裁剪導(dǎo)致的信息丟失,或者是變形導(dǎo)致的位置信息扭曲
  2. 只需要對(duì)圖像特征提取一次,大大加速
  3. 提出spp,將不同分辨率的特征都映射到相同維度

缺點(diǎn)

缺點(diǎn)實(shí)際上就是針對(duì)RCNN未解決的部分:

  1. 提取proposals速度慢
  2. 串行結(jié)構(gòu):先對(duì)特征進(jìn)行分類,然后再對(duì)bounding box位置進(jìn)行回歸。

Fast-RCNN(改版spp+分類與回歸二合一)

Fast-RCNN主要整合了proposals的分類和bounding box的回歸這兩個(gè)過程,整體進(jìn)行了加速。

主要流程

論文中給出的圖如下:
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN
這個(gè)圖其實(shí)把前面提取region proposals的過程給省略了。要主要的是Fast RCNN仍然使用的是selective search來生成proposals的。如果光看上面的圖可能不好看出來和之前工作的區(qū)別,可以將它展示成我們都比較熟悉的樣子:
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN
在轉(zhuǎn)化之后,我們可以很明顯看出Fast-RCNN和SPPNet的區(qū)別。Fast_RCNN主要的修改有以下兩點(diǎn):

  1. 將SPP層變成了RoI pooling層
  2. 取消了SVM,這樣將分類和回歸兩個(gè)過程合并,只是最后的linear層有所區(qū)別

RoI pooling

我們主要介紹第一點(diǎn)修改,第二點(diǎn)修改比較直觀,不做詳述。RoI pooling聽著是新提出的網(wǎng)絡(luò)層,實(shí)際上就是spp的簡化版(經(jīng)典改一張就是原創(chuàng)卡組) !本質(zhì)上是取了一個(gè)尺度的spp,見下圖應(yīng)該就很清楚了
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN
下面這個(gè)過程給出了一個(gè)具體計(jì)算的例子(其實(shí)這也是spp中其中一個(gè)尺度的計(jì)算過程):
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN

優(yōu)點(diǎn)

Fast-RCNN有以下兩個(gè)優(yōu)點(diǎn):

  1. 最后分類和回歸兩個(gè)步驟變成multi-task
  2. 提出RoI pooling,解決proposals分辨率不同影響最后fc求解的問題(感覺SPPNet已經(jīng)解決過了捏?科研人的辛酸是這樣的)

缺點(diǎn)

缺點(diǎn)實(shí)際上就是針對(duì)RCNN未解決的部分(又能少一個(gè)了):

  1. 提取proposals速度慢

Faster-RCNN(修改提取區(qū)域候選的過程)

Faster-RCNN就是解決最后一個(gè)問題:提取proposals速度慢的問題了!前面的網(wǎng)絡(luò)使用的都是seletive search作為候選提取算法,而這個(gè)地方就是想采用神經(jīng)網(wǎng)絡(luò)來代替這個(gè)過程

主要流程

Faster-RCNN和之前方法的對(duì)比如下圖:目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN

因?yàn)橹暗姆椒ó媹D的時(shí)候?qū)嶋H上沒有把提取region proposals的過程畫出來,他們都是在使用selective search之后將proposals映射到特征圖上(也就是左圖的RoI區(qū)域),而右圖是Faster-RCNN完整的過程??梢钥吹胶椭胺椒ㄏ啾鹊母淖兊牡胤骄椭挥幸稽c(diǎn):

  1. 用RPN代替?zhèn)鹘y(tǒng)的selective search方法來進(jìn)行候選區(qū)域提取

RPN

RPN是為了從圖像中提取多個(gè)候選區(qū)域,其基本思想是模式匹配的方法。對(duì)每種模式去回歸這個(gè)模式下是否包含物體的概率以及對(duì)bounding box的修正。下圖是一個(gè)概覽圖。
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN
下面來舉一個(gè)例子會(huì)更加清楚一點(diǎn):對(duì)每一個(gè)像素,以這個(gè)像素為中心,預(yù)先設(shè)定九種候選框(在這里叫anchor)。這樣在經(jīng)過特征提取之后,特征圖上的一個(gè)點(diǎn)可以理解成對(duì)應(yīng)原圖中一個(gè)像素位置的9種anchor
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN
下面這個(gè)圖展示地更清楚一點(diǎn),上圖中灰色的特征圖上每一個(gè)點(diǎn)會(huì)對(duì)應(yīng)下圖上紅色點(diǎn)的位置(每個(gè)位置會(huì)有9個(gè)anchor)。
目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN

假設(shè)特征提取之后的特征圖維度為40x60x512,分成兩個(gè)分支,分別得到

  • 分類分?jǐn)?shù),維度為40x60x9x2,代表原圖上40x60個(gè)點(diǎn)上,這9個(gè)anchor分類為前背景的概率(下分支)
  • 對(duì)bounding box的坐標(biāo)進(jìn)行修正的參數(shù)。維度為,40x60x9x4,代表原圖上40x60個(gè)點(diǎn)上,這9個(gè)anchor的bounding box的偏移量(上分支)
    目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN

之后用bounding box修正參數(shù)進(jìn)行修正就能得到region proposals啦!以上就是RPN的全過程

優(yōu)點(diǎn)

Faster-RCNN的優(yōu)點(diǎn)就主要體現(xiàn)在用RPN替代了傳統(tǒng)提取區(qū)域候選算法,大大加速!

缺點(diǎn)

雖然看來已經(jīng)解決了RCNN的四個(gè)缺點(diǎn)。但是這不代表Faster-RCNN就是完美的了,后續(xù)也有很多工作在這上面進(jìn)行改進(jìn),這些就超出本文的范圍啦!

最后感謝各位看到最后!文章來源地址http://www.zghlxwxcb.cn/news/detail-494156.html

參考資料

  • https://jhui.github.io/2017/03/15/Fast-R-CNN-and-Faster-R-CNN/
  • https://analyticsindiamag.com/r-cnn-vs-fast-r-cnn-vs-faster-r-cnn-a-comparative-guide/
  • https://zhuanlan.zhihu.com/p/370407951
  • https://blog.csdn.net/weixin_43624538/article/details/87966601
  • https://blog.csdn.net/qq_35586657/article/details/97885290
  • https://www.cnblogs.com/kk17/p/9748378.html#25-%E5%AF%B9%E6%96%87%E7%AB%A0%E7%9A%84%E4%B8%80%E4%BA%9B%E6%80%9D%E8%80%83
  • https://blog.csdn.net/fenglepeng/article/details/117898968

到了這里,關(guān)于目標(biāo)檢測(cè)經(jīng)典工作發(fā)展(超詳細(xì)對(duì)比):R-CNN vs SPPNet vs Fast R-CNN vs Faster R-CNN的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 深度學(xué)習(xí)之目標(biāo)檢測(cè)R-CNN模型算法流程詳解說明(超詳細(xì)理論篇)

    深度學(xué)習(xí)之目標(biāo)檢測(cè)R-CNN模型算法流程詳解說明(超詳細(xì)理論篇)

    1.R-CNN論文背景 2. R-CNN算法流程 3. R-CNN創(chuàng)新點(diǎn) 論文網(wǎng)址https://openaccess.thecvf.com/content_cvpr_2014/papers/Girshick_Rich_Feature_Hierarchies_2014_CVPR_paper.pdf ??RCNN(Region-based Convolutional Neural Networks)是一篇由Ross Girshick等人于2014年發(fā)表的論文,題為《Rich feature hierarchies for accurate object detection

    2024年02月11日
    瀏覽(24)
  • 人工智能詳細(xì)筆記:計(jì)算機(jī)視覺、目標(biāo)檢測(cè)與R-CNN系列 YOLO系列模型

    計(jì)算機(jī)視覺概述 :計(jì)算機(jī)視覺是一種利用計(jì)算機(jī)算法和數(shù)學(xué)模型來模擬和自動(dòng)化人類視覺的學(xué)科領(lǐng)域。 計(jì)算機(jī)視覺的地位 :計(jì)算機(jī)視覺(CV)與自然語言處理(NLP)、語音識(shí)別(SR)并列為機(jī)器學(xué)習(xí)方向的三大熱點(diǎn)方向。 計(jì)算機(jī)視覺的常見任務(wù) :下面將從粗粒度到細(xì)粒度介

    2024年02月08日
    瀏覽(31)
  • 【Keras計(jì)算機(jī)視覺】Faster R-CNN神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)目標(biāo)檢測(cè)實(shí)戰(zhàn)(附源碼和數(shù)據(jù)集 超詳細(xì))

    【Keras計(jì)算機(jī)視覺】Faster R-CNN神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)目標(biāo)檢測(cè)實(shí)戰(zhàn)(附源碼和數(shù)據(jù)集 超詳細(xì))

    需要源碼請(qǐng)點(diǎn)贊關(guān)注收藏后評(píng)論區(qū)留言私信~~~ 目標(biāo)檢測(cè)是計(jì)算機(jī)視覺和數(shù)字圖像處理的一個(gè)熱門方向,廣泛應(yīng)用于機(jī)器人導(dǎo)航、智能視頻監(jiān)控、工業(yè)檢測(cè)、航空航天等諸多領(lǐng)域,通過計(jì)算機(jī)視覺減少對(duì)人力資本的消耗,具有重要的現(xiàn)實(shí)意義。因此,目標(biāo)檢測(cè)也就成為了近年來

    2024年02月08日
    瀏覽(26)
  • 目標(biāo)檢測(cè)——R-CNN網(wǎng)絡(luò)基礎(chǔ)

    目標(biāo)檢測(cè)——R-CNN網(wǎng)絡(luò)基礎(chǔ)

    候選區(qū)域生成 CNN網(wǎng)絡(luò)提取特征 目標(biāo)分類(SVM) 目標(biāo)定位 紅色是SS生成的結(jié)果,綠色是標(biāo)注框 預(yù)測(cè)過程 ROI Pooling 目標(biāo)分類和回歸

    2024年02月17日
    瀏覽(32)
  • 【目標(biāo)檢測(cè)】Faster R-CNN算法實(shí)現(xiàn)

    【目標(biāo)檢測(cè)】Faster R-CNN算法實(shí)現(xiàn)

    繼2014年的R-CNN、2015年的Fast R-CNN后,2016年目標(biāo)檢測(cè)領(lǐng)域再次迎來Ross Girshick大佬的神作Faster R-CNN,一舉解決了目標(biāo)檢測(cè)的實(shí)時(shí)性問題。相較于Fast R-CNN而言,F(xiàn)aster R-CNN主要改進(jìn)措施包括: 區(qū)域建議網(wǎng)絡(luò)(RPN):Faster R-CNN摒棄了選擇性搜索,提出區(qū)域提議網(wǎng)絡(luò)(Region Proposal Netwo

    2024年03月14日
    瀏覽(28)
  • 基于Faster R-CNN實(shí)現(xiàn)目標(biāo)檢測(cè)

    基于Faster R-CNN實(shí)現(xiàn)目標(biāo)檢測(cè)

    楊金鵬,男,西安工程大學(xué)電子信息學(xué)院,2022級(jí)研究生 研究方向:機(jī)器視覺與人工智能 電子郵件:1394026082@qq.com 路治東,男,西安工程大學(xué)電子信息學(xué)院,2022級(jí)研究生,張宏偉人工智能課題組 研究方向:機(jī)器視覺與人工智能 電子郵件:2063079527@qq.com Faster RCNN檢測(cè)部分主要

    2024年02月07日
    瀏覽(24)
  • 目標(biāo)檢測(cè)(Object Detection):Fast R-CNN,YOLO v3

    目標(biāo)檢測(cè)(Object Detection):Fast R-CNN,YOLO v3

    目錄 目標(biāo)檢測(cè)(Object Detection) R-CNN SPPNet Fast R-CNN YOLO v1 YOLO v2 YOLO v3 任務(wù)是計(jì)算機(jī)視覺中非常重要的基礎(chǔ)問題,也是解決圖像分割、目標(biāo)跟蹤、圖像描述等問題的基礎(chǔ)。目標(biāo)檢測(cè)是檢測(cè)輸入圖像是否存在給定類別的物體,如果存在,輸出物體在圖像中的位置信息(矩形框的坐標(biāo)

    2024年02月11日
    瀏覽(24)
  • Voxel R-CNN:基于體素的高性能 3D 目標(biāo)檢測(cè)

    Voxel R-CNN:基于體素的高性能 3D 目標(biāo)檢測(cè)

    論文地址:https://arxiv.org/abs/2012.15712 論文代碼:https://github.com/djiajunustc/Voxel-R-CNN 基于點(diǎn)的方法具有較高的檢測(cè)精度,但基于點(diǎn)的方法通常效率較低,因?yàn)閷?duì)于點(diǎn)集抽象來說,使用點(diǎn)表示來搜索最近鄰的代價(jià)更高。 相比于基于點(diǎn),更高效,基于體素的結(jié)構(gòu)更適合于特征提取,

    2024年02月09日
    瀏覽(16)
  • [論文閱讀]Voxel R-CNN——邁向高性能基于體素的3D目標(biāo)檢測(cè)

    [論文閱讀]Voxel R-CNN——邁向高性能基于體素的3D目標(biāo)檢測(cè)

    Voxel R-CNN: Towards High Performance Voxel-based 3D Object Detection 邁向高性能基于體素的3D目標(biāo)檢測(cè) 論文網(wǎng)址:Voxel R-CNN 論文代碼:Voxel R-CNN 該論文提出了 Voxel R-CNN,這是一種基于體素的高性能 3D 對(duì)象檢測(cè)框架。作者認(rèn)為,原始點(diǎn)的精確定位對(duì)于準(zhǔn)確的目標(biāo)檢測(cè)并不重要,粗體素粒度可

    2024年02月07日
    瀏覽(83)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包