国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測

這篇具有很好參考價值的文章主要介紹了計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

YOLOv5頭部的分類任務(wù)和回歸任務(wù)的共同分支會對訓(xùn)練過程造成傷害,分類得分與定位精度的相關(guān)性較低。我們提出了一種雙iou感知解耦頭(DDH),并將其應(yīng)用于YOLOv5。改進后的模型命名為DDH-YOLOv5,在不顯著增加FLOPS和參數(shù)的情況下,顯著提高了模型的定位精度。在PASCAL VOC2007數(shù)據(jù)集上的大量實驗表明,DDH-YOLOv5具有良好的性能。與YOLOv5相比,本文提出的DDH-YOLOv5m和DDH-YOLOv5l的平均精度(AP)分別提高了2.4%和1.3%。

I. Introduction

由于YOLO系列的主干和特征金字塔(不斷進化),它們的檢測頭保持耦合,如圖1所示。計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測,計算機視覺,YOLO,人工智能YOLO檢測頭的結(jié)構(gòu)。a) YOLO檢測頭使用來自頸部的特征映射。b)分類任務(wù)、回歸任務(wù)和對象任務(wù)共用一個分支

然而,在耦合頭中,分類和定位是兩個不同的任務(wù),但它們具有幾乎相同的參數(shù)。

計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測,計算機視覺,YOLO,人工智能基于解耦頭,我們將空間敏感熱圖如圖2所示。第一列為原始圖像,第二列為空間敏感的熱圖,用于分類,第三列為定位。越暖和,顏色越好。

這種基本任務(wù)在空間維度上的錯位極大地限制了探測頭的性能。換句話說,如果檢測器試圖從同一個空間點/錨推斷分類分?jǐn)?shù)和回歸結(jié)果,它總是會得到一個不完美的權(quán)衡結(jié)果。

另一方面,分類子網(wǎng)絡(luò)和定位子網(wǎng)絡(luò)由獨立的目標(biāo)函數(shù)訓(xùn)練,彼此之間不存在關(guān)聯(lián)。因此,在單級檢測器中,分類分?jǐn)?shù)與定位精度的相關(guān)性較低,嚴(yán)重影響了模型的定位精度。IoUaware retavanet也證明了這種低相關(guān)性會影響檢測器的性能。

為了解決上述問題,本文基于YOLOv5提出了一種改進的模型DDH-YOLOv5。與YOLO檢測頭相比,雙iou感知解耦頭采用解耦頭解決分類和定位任務(wù)之間的沖突,包括分類分支和回歸分支。同時,回歸分支中增加了一條感知ioU的路徑,增強了檢測結(jié)果中分類分?jǐn)?shù)與定位精度之間的相關(guān)性。與YOLOv5相比,改進的DDH-YOLOv5具有更好的定位精度和更快的收斂速度。

II. Related work

Prediction head 預(yù)測頭

在DyHead中,提出了一個檢測頭,用于在單個框架中實現(xiàn)尺度感知、空間感知和任務(wù)感知的注意。

在YOLOX中,將YOLO檢測頭替換為一個精簡解耦頭,它是分類分支和回歸分支之前的1 × 1 Conv層,以降低通道維數(shù)。

YOLOF還應(yīng)用了分類和回歸分支,并為回歸頭部的每個錨點添加了隱式的對象性預(yù)測(沒有直接監(jiān)督)。

在Double-Head R-CNN中,提出了一種新的檢測頭,該檢測頭采用全連接頭進行分類,并采用卷積頭進行邊界盒回歸。

本文將YOLO檢測頭替換為雙Iou感知解耦頭(Double IoU-aware uncoupling head, DDH),提高了模型的定位精度和收斂速度。

III. Methodology

計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測,計算機視覺,YOLO,人工智能如圖3所示,DDH-YOLOv5的基線和neck與YOLOv5相同,但DDH-YOLOv5采用了雙欠條感知解耦頭(Double IoU-aware decoupling Head, DDH)作為預(yù)測頭,提高了目標(biāo)檢測性能。

3.1 Decoupled Head

計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測,計算機視覺,YOLO,人工智能我們將圖1中的YOLO檢測頭替換為圖4中的雙iou感知解耦頭(Double IoU-aware decoupling head, DDH)。計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測,計算機視覺,YOLO,人工智能由圖5可以看出,用雙iou感知解耦頭代替解耦頭具有更快的收斂速度和更好的性能。實驗證明,雙iou感知解耦頭結(jié)構(gòu)的設(shè)計能夠解決分類和回歸任務(wù)之間的沖突,加快模型的收斂速度。

3.2 Double IoU?aware

在介紹部分,我們提到了在單級檢測器上分類分?jǐn)?shù)和定位精度之間的相關(guān)性很低。在推理過程中,這種低相關(guān)性會以兩種方式損害模型的平均精度(AP)。

首先,對檢測項進行標(biāo)準(zhǔn)非最大抑制(standard non - maximum suppression, NMS)時,對所有檢測項進行分類評分。分類分?jǐn)?shù)最高的檢測會抑制重疊度高于人工設(shè)置閾值的其他檢測。因此,分類分?jǐn)?shù)低但I(xiàn)oU高的檢測會被分類分?jǐn)?shù)高但I(xiàn)oU低的檢測所抑制。其次,在計算平均精度(AP)時,根據(jù)分類分?jǐn)?shù)對檢測進行排序;分類分?jǐn)?shù)低而欠條數(shù)高的檢測,定位精度較高,但等級較低。

YOLOv5在計算Obj路徑的二進制交叉熵?fù)p失(binary cross-entropy loss, BCE)時,將CIoU的最小值設(shè)置為0,這極大地限制了分類分?jǐn)?shù)與定位精度之間的相關(guān)性。

3.3 Training

計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測,計算機視覺,YOLO,人工智能

IoU-aware loss (LI)采用二元交叉熵?fù)p失(BCE),只計算正例損失,如(1)所示。IoUi表示每個檢測框的預(yù)測IoU,?IoUi是(2)所示回歸的正bi與對應(yīng)的地真盒bi之間計算的目標(biāo)IoU。是否計算LI相對于IoUi的梯度將影響模型的性能。由于在訓(xùn)練過程中計算了LI對IoU?i的梯度,因此可以將IoUaware路徑的梯度反向傳播到回歸路徑。這減少了預(yù)測IoU (IoUi)和目標(biāo)IoU(?IoUi)之間的差距,并使預(yù)測IoU與目標(biāo)IoU更相關(guān)。

DDH-YOLOv5中,總損失如式(3)所示,Lo和Lc分別為YOLOv5的物性損失和YOLOv5的分類損失,Wc和Wo分別為Lo和Lc的權(quán)重系數(shù),Lr為YOLOv5的回歸損失,WI為LI的權(quán)重系數(shù),Wr為Lr和LI共有的權(quán)重系數(shù)。

3.4 Inference

在推理過程中,如(4)所示,將分類分?jǐn)?shù)Clsi乘以對象度分?jǐn)?shù)Obji,并預(yù)測IoU IoUi作為每個被檢測框的最終檢測置信度Sdet。計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測,計算機視覺,YOLO,人工智能

IV. Experiments

4.1 與YOLOv5等檢測頭對PASCAL VOC2007測試進行比較

計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測,計算機視覺,YOLO,人工智能上標(biāo)?表示采用了TPH-YOLOv5[32]中的變壓器預(yù)測頭。上標(biāo)?表明使用了YOLOX[8]中的解耦頭,其寬度系數(shù)與YOLOX相同。我們所有的訓(xùn)練和測試都使用512 × 512分辨率的PASCAL VOC2007數(shù)據(jù)集,并且訓(xùn)練時間表是“2倍”。

計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測,計算機視覺,YOLO,人工智能訓(xùn)練時總損失值和mAP值。這兩個模型都應(yīng)用了解耦頭和雙iou感知。Total loss和mAP用PASCAL VOC2007測量,NMS IoU閾值為0.6

4.2 與COCO2017驗證集上的可變形DETR進行比較

計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測,計算機視覺,YOLO,人工智能頂部部分顯示變形DETR[33]的結(jié)果。我們在640×640分辨率上訓(xùn)練和測試dhh - yolov5m,訓(xùn)練時間表是“1x”(12 epoch)和“3x”(36 epoch)

4.3 與COCO2017驗證集上的YOLOF進行比較

計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測,計算機視覺,YOLO,人工智能

頂部顯示了YOLOF[3]的結(jié)果。YOLOF采用ResNet-50作為骨干,帶有R101或X101后綴的模型表示使用ResNet-101或RetNeXt-101-64× 4d作為骨干。我們在640×640分辨率上訓(xùn)練和測試dhh - yolov5,訓(xùn)練時間表是“1x”(12 epoch)

4.4 與COCO2017測試開發(fā)集上的YOLOv4的比較

計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測,計算機視覺,YOLO,人工智能上面的部分顯示了YOLOv4的結(jié)果。在608×608分辨率下對模型進行訓(xùn)練和測試,將模型轉(zhuǎn)換為FP16半精度后測量推理時間,在2080Ti上測量FPS

V. Conclusion

本文針對YOLOv5檢測頭存在的問題,提出了一種基于YOLOv5的改進模型DDH-YOLOv5,包括解耦頭以解決分類和定位任務(wù)之間的沖突,以及雙iou感知路徑以增強檢測結(jié)果中分類分?jǐn)?shù)和定位精度之間的相關(guān)性。在MS COCO2017數(shù)據(jù)集和PASCAL VOC2007數(shù)據(jù)集上的大量實驗表明,雙iou感知解耦頭(Double IoU-aware 解耦頭,DDH)能夠顯著提高模型性能,并且收斂速度更快。我們希望這份報告能夠幫助開發(fā)人員和研究人員更好地體驗單級物體檢測器。文章來源地址http://www.zghlxwxcb.cn/news/detail-589351.html

到了這里,關(guān)于計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包