YOLOv5頭部的分類任務(wù)和回歸任務(wù)的共同分支會對訓(xùn)練過程造成傷害,分類得分與定位精度的相關(guān)性較低。我們提出了一種雙iou感知解耦頭(DDH),并將其應(yīng)用于YOLOv5。改進后的模型命名為DDH-YOLOv5,在不顯著增加FLOPS和參數(shù)的情況下,顯著提高了模型的定位精度。在PASCAL VOC2007數(shù)據(jù)集上的大量實驗表明,DDH-YOLOv5具有良好的性能。與YOLOv5相比,本文提出的DDH-YOLOv5m和DDH-YOLOv5l的平均精度(AP)分別提高了2.4%和1.3%。
I. Introduction
由于YOLO系列的主干和特征金字塔(不斷進化),它們的檢測頭保持耦合,如圖1所示。YOLO檢測頭的結(jié)構(gòu)。a) YOLO檢測頭使用來自頸部的特征映射。b)分類任務(wù)、回歸任務(wù)和對象任務(wù)共用一個分支
然而,在耦合頭中,分類和定位是兩個不同的任務(wù),但它們具有幾乎相同的參數(shù)。
基于解耦頭,我們將空間敏感熱圖如圖2所示。第一列為原始圖像,第二列為空間敏感的熱圖,用于分類,第三列為定位。越暖和,顏色越好。
這種基本任務(wù)在空間維度上的錯位極大地限制了探測頭的性能。換句話說,如果檢測器試圖從同一個空間點/錨推斷分類分?jǐn)?shù)和回歸結(jié)果,它總是會得到一個不完美的權(quán)衡結(jié)果。
另一方面,分類子網(wǎng)絡(luò)和定位子網(wǎng)絡(luò)由獨立的目標(biāo)函數(shù)訓(xùn)練,彼此之間不存在關(guān)聯(lián)。因此,在單級檢測器中,分類分?jǐn)?shù)與定位精度的相關(guān)性較低,嚴(yán)重影響了模型的定位精度。IoUaware retavanet也證明了這種低相關(guān)性會影響檢測器的性能。
為了解決上述問題,本文基于YOLOv5提出了一種改進的模型DDH-YOLOv5。與YOLO檢測頭相比,雙iou感知解耦頭采用解耦頭解決分類和定位任務(wù)之間的沖突,包括分類分支和回歸分支。同時,回歸分支中增加了一條感知ioU的路徑,增強了檢測結(jié)果中分類分?jǐn)?shù)與定位精度之間的相關(guān)性。與YOLOv5相比,改進的DDH-YOLOv5具有更好的定位精度和更快的收斂速度。
II. Related work
Prediction head 預(yù)測頭
在DyHead中,提出了一個檢測頭,用于在單個框架中實現(xiàn)尺度感知、空間感知和任務(wù)感知的注意。
在YOLOX中,將YOLO檢測頭替換為一個精簡解耦頭,它是分類分支和回歸分支之前的1 × 1 Conv層,以降低通道維數(shù)。
YOLOF還應(yīng)用了分類和回歸分支,并為回歸頭部的每個錨點添加了隱式的對象性預(yù)測(沒有直接監(jiān)督)。
在Double-Head R-CNN中,提出了一種新的檢測頭,該檢測頭采用全連接頭進行分類,并采用卷積頭進行邊界盒回歸。
本文將YOLO檢測頭替換為雙Iou感知解耦頭(Double IoU-aware uncoupling head, DDH),提高了模型的定位精度和收斂速度。
III. Methodology
如圖3所示,DDH-YOLOv5的基線和neck與YOLOv5相同,但DDH-YOLOv5采用了雙欠條感知解耦頭(Double IoU-aware decoupling Head, DDH)作為預(yù)測頭,提高了目標(biāo)檢測性能。
3.1 Decoupled Head
我們將圖1中的YOLO檢測頭替換為圖4中的雙iou感知解耦頭(Double IoU-aware decoupling head, DDH)。
由圖5可以看出,用雙iou感知解耦頭代替解耦頭具有更快的收斂速度和更好的性能。實驗證明,雙iou感知解耦頭結(jié)構(gòu)的設(shè)計能夠解決分類和回歸任務(wù)之間的沖突,加快模型的收斂速度。
3.2 Double IoU?aware
在介紹部分,我們提到了在單級檢測器上分類分?jǐn)?shù)和定位精度之間的相關(guān)性很低。在推理過程中,這種低相關(guān)性會以兩種方式損害模型的平均精度(AP)。
首先,對檢測項進行標(biāo)準(zhǔn)非最大抑制(standard non - maximum suppression, NMS)時,對所有檢測項進行分類評分。分類分?jǐn)?shù)最高的檢測會抑制重疊度高于人工設(shè)置閾值的其他檢測。因此,分類分?jǐn)?shù)低但I(xiàn)oU高的檢測會被分類分?jǐn)?shù)高但I(xiàn)oU低的檢測所抑制。其次,在計算平均精度(AP)時,根據(jù)分類分?jǐn)?shù)對檢測進行排序;分類分?jǐn)?shù)低而欠條數(shù)高的檢測,定位精度較高,但等級較低。
YOLOv5在計算Obj路徑的二進制交叉熵?fù)p失(binary cross-entropy loss, BCE)時,將CIoU的最小值設(shè)置為0,這極大地限制了分類分?jǐn)?shù)與定位精度之間的相關(guān)性。
3.3 Training
IoU-aware loss (LI)采用二元交叉熵?fù)p失(BCE),只計算正例損失,如(1)所示。IoUi表示每個檢測框的預(yù)測IoU,?IoUi是(2)所示回歸的正bi與對應(yīng)的地真盒bi之間計算的目標(biāo)IoU。是否計算LI相對于IoUi的梯度將影響模型的性能。由于在訓(xùn)練過程中計算了LI對IoU?i的梯度,因此可以將IoUaware路徑的梯度反向傳播到回歸路徑。這減少了預(yù)測IoU (IoUi)和目標(biāo)IoU(?IoUi)之間的差距,并使預(yù)測IoU與目標(biāo)IoU更相關(guān)。
DDH-YOLOv5中,總損失如式(3)所示,Lo和Lc分別為YOLOv5的物性損失和YOLOv5的分類損失,Wc和Wo分別為Lo和Lc的權(quán)重系數(shù),Lr為YOLOv5的回歸損失,WI為LI的權(quán)重系數(shù),Wr為Lr和LI共有的權(quán)重系數(shù)。
3.4 Inference
在推理過程中,如(4)所示,將分類分?jǐn)?shù)Clsi乘以對象度分?jǐn)?shù)Obji,并預(yù)測IoU IoUi作為每個被檢測框的最終檢測置信度Sdet。
IV. Experiments
4.1 與YOLOv5等檢測頭對PASCAL VOC2007測試進行比較
上標(biāo)?表示采用了TPH-YOLOv5[32]中的變壓器預(yù)測頭。上標(biāo)?表明使用了YOLOX[8]中的解耦頭,其寬度系數(shù)與YOLOX相同。我們所有的訓(xùn)練和測試都使用512 × 512分辨率的PASCAL VOC2007數(shù)據(jù)集,并且訓(xùn)練時間表是“2倍”。
訓(xùn)練時總損失值和mAP值。這兩個模型都應(yīng)用了解耦頭和雙iou感知。Total loss和mAP用PASCAL VOC2007測量,NMS IoU閾值為0.6
4.2 與COCO2017驗證集上的可變形DETR進行比較
頂部部分顯示變形DETR[33]的結(jié)果。我們在640×640分辨率上訓(xùn)練和測試dhh - yolov5m,訓(xùn)練時間表是“1x”(12 epoch)和“3x”(36 epoch)
4.3 與COCO2017驗證集上的YOLOF進行比較
頂部顯示了YOLOF[3]的結(jié)果。YOLOF采用ResNet-50作為骨干,帶有R101或X101后綴的模型表示使用ResNet-101或RetNeXt-101-64× 4d作為骨干。我們在640×640分辨率上訓(xùn)練和測試dhh - yolov5,訓(xùn)練時間表是“1x”(12 epoch)
4.4 與COCO2017測試開發(fā)集上的YOLOv4的比較
上面的部分顯示了YOLOv4的結(jié)果。在608×608分辨率下對模型進行訓(xùn)練和測試,將模型轉(zhuǎn)換為FP16半精度后測量推理時間,在2080Ti上測量FPS文章來源:http://www.zghlxwxcb.cn/news/detail-589351.html
V. Conclusion
本文針對YOLOv5檢測頭存在的問題,提出了一種基于YOLOv5的改進模型DDH-YOLOv5,包括解耦頭以解決分類和定位任務(wù)之間的沖突,以及雙iou感知路徑以增強檢測結(jié)果中分類分?jǐn)?shù)和定位精度之間的相關(guān)性。在MS COCO2017數(shù)據(jù)集和PASCAL VOC2007數(shù)據(jù)集上的大量實驗表明,雙iou感知解耦頭(Double IoU-aware 解耦頭,DDH)能夠顯著提高模型性能,并且收斂速度更快。我們希望這份報告能夠幫助開發(fā)人員和研究人員更好地體驗單級物體檢測器。文章來源地址http://www.zghlxwxcb.cn/news/detail-589351.html
到了這里,關(guān)于計算機視覺 day94 DDH - YOLOv5:基于雙IoU感知解耦頭改進的YOLOv5,用于對象檢測的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!