????????邊界框回歸(BBR)的損失函數(shù)對于目標(biāo)檢測至關(guān)重要。它的良好定義將為模型帶來顯著的性能改進(jìn)。大多數(shù)現(xiàn)有的工作假設(shè)訓(xùn)練數(shù)據(jù)中的樣本是高質(zhì)量的,并側(cè)重于增強(qiáng)BBR損失的擬合能力。
一、L2-norm
????????最初的基于回歸的BBR損失定義為L2-norm,L2-norm損失主要有兩個缺點(diǎn):
1、邊界框的坐標(biāo)(以xt、xb、xl、xr的形式)被優(yōu)化為四個獨(dú)立變量。這個假設(shè)違背了對象的邊界高度相關(guān)的事實(shí)。簡單的分開計(jì)算每個變量的回歸loss無法反映這種相關(guān)性,它會導(dǎo)致預(yù)測框的一個或兩個邊界非常接近GT,但整個邊界框是不滿足條件的。
2、這種形式的損失函數(shù)并不能屏蔽邊界框大小的干擾,使得模型對小目標(biāo)的定位性能較差。
二、IoU loss
論文:《UnitBox: An Advanced Object Detection Network》
????????在目標(biāo)檢測任務(wù)中,使用IoU來測量anchor box與目標(biāo)box之間的重疊程度。它以比例的形式有效地屏蔽了邊界框大小的干擾,使該模型在使用1-IoU作為BBR損失時(shí),能夠很好地平衡對大物體和小物體的學(xué)習(xí)。
IoU loss的函數(shù)定義為:
??
當(dāng)邊界框沒有重疊時(shí)Liou對Wi求導(dǎo)會等于0,即:
??
此時(shí)Liou的反向投影梯度消失,在訓(xùn)練期間無法更新重疊區(qū)域Wi的寬度。
IoU損失會有兩個主要的缺點(diǎn):?
1、當(dāng)預(yù)測框與真實(shí)框都沒有交集時(shí),計(jì)算出來的IoU都為0,損失都為1,但是缺失距離信息,預(yù)測框與GT相對位置較近時(shí),損失函數(shù)應(yīng)該較小。
2、當(dāng)預(yù)測框和真實(shí)框的交并比相同,但是預(yù)測框所在位置不同,因?yàn)橛?jì)算出來的損失一樣,所以這樣并不能判斷哪種預(yù)測框更加準(zhǔn)確。
????????現(xiàn)有的工作GIOU、DIOU、Focal EIOU、CIOU以及SIOU中考慮了許多與邊界框相關(guān)的幾何因子,并構(gòu)造了懲罰項(xiàng)Ri來解決這個問題?,F(xiàn)有的BBR損失遵循以下范例:
三、GIoU loss
論文:《Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression》
????????為了解決IoU loss的第一個問題,即當(dāng)預(yù)測框與真實(shí)框都沒有交集的時(shí)候,計(jì)算出來的IoU都為0,損失都為1,引入了一個最小閉包區(qū)的概念,即能將預(yù)測框和真實(shí)框包裹住的最小矩形框
????????其中紫色框?yàn)镚T,藍(lán)色框?yàn)轭A(yù)測框,綠色的邊框則為最小包圍框。
GIoU的偽代碼:
????????與IoU相似,GIoU也是一種距離度量,IoU取值[0,1],GIoU取值范圍[-1,1]。在兩者重合的時(shí)候取最大值1,在兩者無交集且無限遠(yuǎn)的時(shí)候取最小值-1,因此GIoU是一個非常好的距離度量指標(biāo)。與IoU只關(guān)注重疊區(qū)域不同,GIoU不僅關(guān)注重疊區(qū)域,還關(guān)注其他的非重合區(qū)域,能更好的反映兩者的重合度。
但是GIoU同時(shí)也存在一些問題:
1、當(dāng)預(yù)測框包裹GT時(shí),計(jì)算的iou相同,但是質(zhì)量卻不同,對于預(yù)測框的中心點(diǎn)靠近GT中心點(diǎn)的情況,loss應(yīng)該相對小一些
GIoU loss的定義:
四、DIoU/CIoU loss
論文:《Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression》
????????DIoU為了解決GIoU中存在的問題,作者認(rèn)為好的檢測回歸loss應(yīng)該考慮三個幾何度量,預(yù)測框和GT框的重疊度、中心點(diǎn)距離、長寬比的一致性。于是在IoU loss和GIoU loss基礎(chǔ)上引入預(yù)測框和GT框中心點(diǎn)距離作DIoU loss,在DIoU loss基礎(chǔ)上引入了預(yù)測框的長寬比和GT框的長寬比之間的差異作CIoU loss。此外,將DIoU加入nms替代IoU,提升了nms的魯棒性。
DIoU定義:
????????DIoU也存在一個缺點(diǎn),當(dāng)真實(shí)框和預(yù)測框的中心點(diǎn)重合時(shí),但是長寬比不同,交并比一樣,CIoU在此基礎(chǔ)上增加一個懲罰項(xiàng)。
CIoU定義:
其中:
? ? ? ? v用于計(jì)算預(yù)測框和目標(biāo)框的高寬比的一致性,這里是用tan角來衡量?
? ? ? ? α是一個平衡參數(shù)(這個系數(shù)不參與梯度計(jì)算),這里根據(jù)IoU值來賦予優(yōu)先級,當(dāng)預(yù)測框和目標(biāo)框IoU越大時(shí),系數(shù)越大 。
五、EIoU Loss/Focal EIoU Loss
論文:Focal and Efficient IOU Loss for Accurate Bounding Box Regression》
?主要思想:
????????一是認(rèn)為CIoU loss對于長寬比加入loss的設(shè)計(jì)不太合理,于是將CIoU loss中反應(yīng)長寬比一致性的部分替換成了分別對于長和寬的一致性loss,形成了EIoU loss。
????????二是認(rèn)為不太好的回歸樣本對回歸loss產(chǎn)生了比較大的影響,回歸質(zhì)量相對較好的樣本則難以進(jìn)一步優(yōu)化,所以論文提出Focal EIoU loss進(jìn)行回歸質(zhì)量較好和質(zhì)量較差的樣本之間的平衡。
EIoU loss定義:
?其中hc和wc為最小包圍框的高和寬。
???????要平衡回歸質(zhì)量較好的樣本的偏小loss和回歸質(zhì)量較差的樣本的偏大loss,很自然的,選擇和GT的IoU形成類似focal loss中的(1-p)的γ次方的權(quán)重來調(diào)節(jié)是一個很好的想法。
Focal EIoU loss定義:
最終形式:
指標(biāo)對比:
六、SIoU loss
論文:《SIoU Loss: More Powerful Learning for Bounding Box Regression》
????????已有方法匹配真實(shí)框和預(yù)測框之間的IoU、中心點(diǎn)距離、寬高比等,它們均未考慮真實(shí)框和預(yù)測框之間不匹配的方向。這種不足導(dǎo)致收斂速度較慢且效率較低,因?yàn)轭A(yù)測框可能在訓(xùn)練過程中“徘徊”,最終生成更差的模型。
????????本文提出了一種新的損失函數(shù)SCYLLA-IoU(SIoU),考慮到期望回歸之間向量的角度,重新定義角度懲罰度量,它可以使預(yù)測框快速漂移到最近的軸,隨后則只需要回歸一個坐標(biāo)(X或Y),這有效地減少了自由度的總數(shù)。
????????Zhora證明了中心對準(zhǔn)anchor box具有更快的收斂速度,并根據(jù)角度成本、距離成本和形狀成本構(gòu)造了SIoU。
????????Angle cost描述了中心點(diǎn)連接(圖1)與x-y軸之間的最小角度,當(dāng)中心點(diǎn)在x軸或y軸上對齊時(shí),Λ = 0。當(dāng)中心點(diǎn)連接到x軸45°時(shí),Λ = 1。這一懲罰可以引導(dǎo)anchor box移動到目標(biāo)框的最近的軸上,減少了BBR的總自由度數(shù)。
????????Distance cost描述了中心點(diǎn)之間的距離,其懲罰代價(jià)與角度代價(jià)呈正相關(guān),當(dāng)??→0時(shí),Distance cost的貢獻(xiàn)大大降低。相反,??越接近pi/4,Distance cost貢獻(xiàn)越大。
具體來說:以X軸為例,即兩框近乎平行時(shí),a趨近于0,這樣計(jì)算出來兩框之間的角度距離接近于0,此時(shí)γ也接近于2,那么兩框之間的距離對于整體loss的貢獻(xiàn)變少了。而當(dāng)a趨近與45°時(shí),計(jì)算出來兩框之間的角度為1,此時(shí)γ接近1,則兩框之間的距離應(yīng)該被重視,需要占更大的loss。
????????Shape cost這里作者考慮的兩框之間的長寬比,是通過計(jì)算兩框之間寬之差和二者之間最大寬之比(長同理)來定義的,大體思路和CIOU類似,只不過CIOU可以的考慮是兩框整體形狀的收斂,而SIoU是以長、寬兩個邊收斂來達(dá)到整體形狀收斂的效果。
????????θ是個可調(diào)變量,來表示網(wǎng)絡(luò)需要對形狀這個,給予多少注意力,即占多少權(quán)重。實(shí)驗(yàn)中設(shè)置為4。
SIoU loss定義:
七、WIoU loss
?論文:《Wise-IoU: Bounding Box Regression Loss with Dynamic Focusing Mechanism》
????????Focal EIoU v1被提出來解決質(zhì)量較好和質(zhì)量較差的樣本間的BBR平衡問題,但由于其靜態(tài)聚焦機(jī)制(FM),非單調(diào)FM的潛力沒有被充分利用,基于這一思想,作者提出了一種基于IoU的損失,該損失具有動態(tài)非單調(diào)FM,名為Wise IoU(WIoU)。
主要貢獻(xiàn)總結(jié)如下:
-
提出了BBR的基于注意力的損失WIoU v1,它在仿真實(shí)驗(yàn)中實(shí)現(xiàn)了比最先進(jìn)的SIoU更低的回歸誤差。
-
設(shè)計(jì)了具有單調(diào)FM的WIoU v2和具有動態(tài)非單調(diào)FM的WIoU v3。利用動態(tài)非單調(diào)FM的明智的梯度增益分配策略,WIoU v3獲得了優(yōu)越的性能。
-
對低質(zhì)量的樣本的影響進(jìn)行了一系列詳細(xì)的研究,證明了動態(tài)非單調(diào)調(diào)頻的有效性和效率。
????????由于訓(xùn)練數(shù)據(jù)不可避免地包含低質(zhì)量示例,幾何因素(如距離和縱橫比)將加重對低質(zhì)量示例的懲罰,從而降低模型的泛化性能。當(dāng)anchor box與目標(biāo)box很好地重合時(shí),一個好的損失函數(shù)應(yīng)該會削弱幾何因素的懲罰,而較少的訓(xùn)練干預(yù)將使模型獲得更好的泛化能力。
WIoU loss定義:
????????其中Wg,Hg表示最小包圍框的寬和高。為了防止Rwiou產(chǎn)生阻礙收斂的梯度,Wg和Hg從計(jì)算圖中分離出來(上標(biāo)*表示此操作)。因?yàn)樗行У叵俗璧K收斂的因素,所以沒有引入新的度量,例如縱橫比。
1、Rwiou∈[1,e),這將顯著放大普通質(zhì)量anchor box的LIoU。?
2、Liou∈[0,1],這將顯著降低高質(zhì)量anchor box的Rwiou,并在anchor box與目標(biāo)框重合時(shí),重點(diǎn)關(guān)注中心點(diǎn)之間的距離。
消融實(shí)驗(yàn)的結(jié)果:
????????從消融實(shí)驗(yàn)的結(jié)果可以看出WIoU v3的效果最好。文章來源:http://www.zghlxwxcb.cn/news/detail-405476.html
代碼
? ? ? ? 上述的IoU loss的實(shí)現(xiàn)可以參看我的另一篇文章:yolov5增加iou loss,無痛漲點(diǎn)trick文章來源地址http://www.zghlxwxcb.cn/news/detail-405476.html
到了這里,關(guān)于IoU Loss綜述(IOU,GIOU,CIOU,EIOU,SIOU,WIOU)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!