深度學習(24)——YOLO系列(3)
今天YOLOv4理論版
1. BOF(bag of freebies)
- 只增強訓練成本,但是能顯著提高精度,但是不影響推理速度
- 數據增強:調整亮度,對比度,色調,隨機縮放…
- 網絡正則化的方法:dropout,dropblock
- 類別不平衡——>損失函數設計
2. Mosaic data augmentation
- 參考cutmix,以前就存在,將增強的四張圖像拼接在一張進行訓練(相當于間接增加batch)
3. 數據增強
- random erase:隨機遮擋或擦除
- hide and seek:根據概率隨機隱藏補丁
4. self-adversarial-training(SAT)
- 在原始圖像中增加噪音點干擾
5. dropblock
dropout是隨機選擇一些點遮?。ㄓ螒螂y度增加不大),dropblock現在遮住一個區(qū)域(游戲難度增大)
6. label smoothing
- 神經網絡最大的缺點,標簽絕對,容易過擬合
- 使用之后,簇內更緊密,簇間更分離
7. 損失函數
a. IOU損失
- 相同的IOU卻反映不出實際情況到底是怎么樣的
- 當交集為0時,沒有梯度無法計算(梯度消失)
b.GIOU
- 引入最小封閉框C(C可以把A,B包含在內)
- 在不重疊的情況下可以使預測框盡可能靠近真實框
- 解決了梯度下降的問題,但是重疊的時候失靈
c. DIOU
- 附加項的分子項:預測框與真實框中心點的歐氏距離
- 附加項的分母項:最小封閉框的對角線長度C
- 直接優(yōu)化距離,速度更快,并解決GIOU
d.CIOU
-
考慮三個幾何因素:
- 重疊面積
- 中心點距離
- 長寬比(v)
8. SPPNet(spatial pyramid pooling)
- 為了更好滿足不同輸入大小,訓練的時候要改變輸入數據的大小
- SPP其實就是用最大池化來滿足最終輸入特征一致即可
9. CSPNet(cross stage partial network)【更快】
- 每個block 按照特征圖的channel維度拆分成兩部分
- 一份正常走網絡,另一份直接concat到這個block的輸出
10.CBAM & SAM
- 計算量太大!所以在V4中,引入SAM ,沒有channel之間的attention,只有spatial空間attention(attention可以讓模型更好學習特征)
11.YOLO中的attention鏈接機制
12. PAN
- FPN是自頂向下的模式,將高層特征傳下來,高層逐層向下兼容下層(單向)
- 缺少底層到高層,PAN登場
- 引入自底向上的路徑,使得底層信息更容易傳到頂部
- 還是一個捷徑,紅色的可能要走100+層,綠色只需要幾層就OK
13. PAN的連接方式
14. 激活函數
文章來源:http://www.zghlxwxcb.cn/news/detail-504816.html
15. 網絡結構
文章來源地址http://www.zghlxwxcb.cn/news/detail-504816.html
16.優(yōu)點
- 使用單個GPU就可以訓練很好
- 量大核心方法:數據層面+網絡層面
- 消融實驗
- 速度快,性能高!
到了這里,關于深度學習(24)——YOLO系列(3)的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!