深度學(xué)習(xí)(24)——YOLO系列(3)
今天YOLOv4理論版
1. BOF(bag of freebies)
- 只增強(qiáng)訓(xùn)練成本,但是能顯著提高精度,但是不影響推理速度
- 數(shù)據(jù)增強(qiáng):調(diào)整亮度,對(duì)比度,色調(diào),隨機(jī)縮放…
- 網(wǎng)絡(luò)正則化的方法:dropout,dropblock
- 類別不平衡——>損失函數(shù)設(shè)計(jì)
2. Mosaic data augmentation
- 參考cutmix,以前就存在,將增強(qiáng)的四張圖像拼接在一張進(jìn)行訓(xùn)練(相當(dāng)于間接增加batch)
3. 數(shù)據(jù)增強(qiáng)
- random erase:隨機(jī)遮擋或擦除
- hide and seek:根據(jù)概率隨機(jī)隱藏補(bǔ)丁
4. self-adversarial-training(SAT)
- 在原始圖像中增加噪音點(diǎn)干擾
5. dropblock
dropout是隨機(jī)選擇一些點(diǎn)遮?。ㄓ螒螂y度增加不大),dropblock現(xiàn)在遮住一個(gè)區(qū)域(游戲難度增大)
6. label smoothing
- 神經(jīng)網(wǎng)絡(luò)最大的缺點(diǎn),標(biāo)簽絕對(duì),容易過擬合
- 使用之后,簇內(nèi)更緊密,簇間更分離
7. 損失函數(shù)
a. IOU損失
- 相同的IOU卻反映不出實(shí)際情況到底是怎么樣的
- 當(dāng)交集為0時(shí),沒有梯度無法計(jì)算(梯度消失)
b.GIOU
- 引入最小封閉框C(C可以把A,B包含在內(nèi))
- 在不重疊的情況下可以使預(yù)測框盡可能靠近真實(shí)框
- 解決了梯度下降的問題,但是重疊的時(shí)候失靈
c. DIOU
- 附加項(xiàng)的分子項(xiàng):預(yù)測框與真實(shí)框中心點(diǎn)的歐氏距離
- 附加項(xiàng)的分母項(xiàng):最小封閉框的對(duì)角線長度C
- 直接優(yōu)化距離,速度更快,并解決GIOU
d.CIOU
-
考慮三個(gè)幾何因素:
- 重疊面積
- 中心點(diǎn)距離
- 長寬比(v)
8. SPPNet(spatial pyramid pooling)
- 為了更好滿足不同輸入大小,訓(xùn)練的時(shí)候要改變輸入數(shù)據(jù)的大小
- SPP其實(shí)就是用最大池化來滿足最終輸入特征一致即可
9. CSPNet(cross stage partial network)【更快】
- 每個(gè)block 按照特征圖的channel維度拆分成兩部分
- 一份正常走網(wǎng)絡(luò),另一份直接concat到這個(gè)block的輸出
10.CBAM & SAM
- 計(jì)算量太大!所以在V4中,引入SAM ,沒有channel之間的attention,只有spatial空間attention(attention可以讓模型更好學(xué)習(xí)特征)
11.YOLO中的attention鏈接機(jī)制
12. PAN
- FPN是自頂向下的模式,將高層特征傳下來,高層逐層向下兼容下層(單向)
- 缺少底層到高層,PAN登場
- 引入自底向上的路徑,使得底層信息更容易傳到頂部
- 還是一個(gè)捷徑,紅色的可能要走100+層,綠色只需要幾層就OK
13. PAN的連接方式
14. 激活函數(shù)
文章來源:http://www.zghlxwxcb.cn/news/detail-489546.html
15. 網(wǎng)絡(luò)結(jié)構(gòu)
文章來源地址http://www.zghlxwxcb.cn/news/detail-489546.html
16.優(yōu)點(diǎn)
- 使用單個(gè)GPU就可以訓(xùn)練很好
- 量大核心方法:數(shù)據(jù)層面+網(wǎng)絡(luò)層面
- 消融實(shí)驗(yàn)
- 速度快,性能高!
到了這里,關(guān)于深度學(xué)習(xí)(22)——YOLO系列(3)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!