国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

深度學(xué)習(xí)(22)——YOLO系列(3)

這篇具有很好參考價(jià)值的文章主要介紹了深度學(xué)習(xí)(22)——YOLO系列(3)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

深度學(xué)習(xí)(24)——YOLO系列(3)


今天YOLOv4理論版

1. BOF(bag of freebies)

  • 只增強(qiáng)訓(xùn)練成本,但是能顯著提高精度,但是不影響推理速度
  • 數(shù)據(jù)增強(qiáng):調(diào)整亮度,對(duì)比度,色調(diào),隨機(jī)縮放…
  • 網(wǎng)絡(luò)正則化的方法:dropout,dropblock
  • 類別不平衡——>損失函數(shù)設(shè)計(jì)

2. Mosaic data augmentation

  • 參考cutmix,以前就存在,將增強(qiáng)的四張圖像拼接在一張進(jìn)行訓(xùn)練(相當(dāng)于間接增加batch)
    深度學(xué)習(xí)(22)——YOLO系列(3)

3. 數(shù)據(jù)增強(qiáng)

  • random erase:隨機(jī)遮擋或擦除
  • hide and seek:根據(jù)概率隨機(jī)隱藏補(bǔ)丁

4. self-adversarial-training(SAT)

  • 在原始圖像中增加噪音點(diǎn)干擾
    深度學(xué)習(xí)(22)——YOLO系列(3)

5. dropblock

dropout是隨機(jī)選擇一些點(diǎn)遮?。ㄓ螒螂y度增加不大),dropblock現(xiàn)在遮住一個(gè)區(qū)域(游戲難度增大)
深度學(xué)習(xí)(22)——YOLO系列(3)

6. label smoothing

  • 神經(jīng)網(wǎng)絡(luò)最大的缺點(diǎn),標(biāo)簽絕對(duì),容易過擬合
  • 使用之后,簇內(nèi)更緊密,簇間更分離

7. 損失函數(shù)

a. IOU損失

  • 相同的IOU卻反映不出實(shí)際情況到底是怎么樣的
  • 當(dāng)交集為0時(shí),沒有梯度無法計(jì)算(梯度消失)

b.GIOU

深度學(xué)習(xí)(22)——YOLO系列(3)

  • 引入最小封閉框C(C可以把A,B包含在內(nèi))
  • 在不重疊的情況下可以使預(yù)測框盡可能靠近真實(shí)框
  • 解決了梯度下降的問題,但是重疊的時(shí)候失靈

c. DIOU

深度學(xué)習(xí)(22)——YOLO系列(3)

  • 附加項(xiàng)的分子項(xiàng):預(yù)測框與真實(shí)框中心點(diǎn)的歐氏距離
  • 附加項(xiàng)的分母項(xiàng):最小封閉框的對(duì)角線長度C
  • 直接優(yōu)化距離,速度更快,并解決GIOU

d.CIOU

深度學(xué)習(xí)(22)——YOLO系列(3)

  • 考慮三個(gè)幾何因素:

    • 重疊面積
    • 中心點(diǎn)距離
    • 長寬比(v)

8. SPPNet(spatial pyramid pooling)

  • 為了更好滿足不同輸入大小,訓(xùn)練的時(shí)候要改變輸入數(shù)據(jù)的大小
  • SPP其實(shí)就是用最大池化來滿足最終輸入特征一致即可

9. CSPNet(cross stage partial network)【更快】

深度學(xué)習(xí)(22)——YOLO系列(3)

  • 每個(gè)block 按照特征圖的channel維度拆分成兩部分
  • 一份正常走網(wǎng)絡(luò),另一份直接concat到這個(gè)block的輸出

10.CBAM & SAM

深度學(xué)習(xí)(22)——YOLO系列(3)
深度學(xué)習(xí)(22)——YOLO系列(3)

  • 計(jì)算量太大!所以在V4中,引入SAM ,沒有channel之間的attention,只有spatial空間attention(attention可以讓模型更好學(xué)習(xí)特征)

11.YOLO中的attention鏈接機(jī)制

深度學(xué)習(xí)(22)——YOLO系列(3)

12. PAN

  • FPN是自頂向下的模式,將高層特征傳下來,高層逐層向下兼容下層(單向)
  • 缺少底層到高層,PAN登場
  • 引入自底向上的路徑,使得底層信息更容易傳到頂部
  • 還是一個(gè)捷徑,紅色的可能要走100+層,綠色只需要幾層就OK
    深度學(xué)習(xí)(22)——YOLO系列(3)

13. PAN的連接方式

深度學(xué)習(xí)(22)——YOLO系列(3)

14. 激活函數(shù)

深度學(xué)習(xí)(22)——YOLO系列(3)

15. 網(wǎng)絡(luò)結(jié)構(gòu)

深度學(xué)習(xí)(22)——YOLO系列(3)文章來源地址http://www.zghlxwxcb.cn/news/detail-489546.html

16.優(yōu)點(diǎn)

  • 使用單個(gè)GPU就可以訓(xùn)練很好
  • 量大核心方法:數(shù)據(jù)層面+網(wǎng)絡(luò)層面
  • 消融實(shí)驗(yàn)
  • 速度快,性能高!

到了這里,關(guān)于深度學(xué)習(xí)(22)——YOLO系列(3)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 深度學(xué)習(xí)(24)——YOLO系列(3)

    深度學(xué)習(xí)(24)——YOLO系列(3)

    今天YOLOv4理論版 只增強(qiáng)訓(xùn)練成本,但是能顯著提高精度,但是不影響推理速度 數(shù)據(jù)增強(qiáng):調(diào)整亮度,對(duì)比度,色調(diào),隨機(jī)縮放… 網(wǎng)絡(luò)正則化的方法:dropout,dropblock 類別不平衡——損失函數(shù)設(shè)計(jì) 參考cutmix,以前就存在,將增強(qiáng)的四張圖像拼接在一張進(jìn)行訓(xùn)練(相當(dāng)于間接增

    2024年02月11日
    瀏覽(19)
  • 深度學(xué)習(xí)(27)——YOLO系列(6)

    深度學(xué)習(xí)(27)——YOLO系列(6)

    咱就是說,需要源碼請(qǐng)?jiān)煸L:Jane的GitHub :在這里等你哦 嗨,好久不見,昨天結(jié)束了yolov7的debug過程,真的在盡力句句理解,我想這應(yīng)該是我更新的yolo系列的最后一篇,但是僅限于yolo,detect的話題還不會(huì)結(jié)束,還會(huì)繼續(xù)進(jìn)行,detect結(jié)束以后再說segmentation。和往常以一樣的過程

    2024年02月15日
    瀏覽(16)
  • 深度學(xué)習(xí)(28)——YOLO系列(7)

    深度學(xué)習(xí)(28)——YOLO系列(7)

    咱就是說,需要源碼請(qǐng)?jiān)煸L:Jane的GitHub :在這里 上午沒寫完的,下午繼續(xù),是一個(gè)小尾巴。其實(shí)上午把訓(xùn)練的關(guān)鍵部分和數(shù)據(jù)的關(guān)鍵部分都寫完了,現(xiàn)在就是寫一下推理部分 在推理過程為了提高效率,速度更快: 1.1 attempt_load(weights) weights是加載的yolov7之前訓(xùn)練好的權(quán)重 剛

    2024年02月16日
    瀏覽(16)
  • 深度學(xué)習(xí)(23)——YOLO系列(2)

    深度學(xué)習(xí)(23)——YOLO系列(2)

    yolo-V3完整項(xiàng)目請(qǐng)?jiān)煸LJane的GitHub :在這里等你哦 今天先寫YOLO v3的代碼,后面再出v5,v7。 **特此說明:訓(xùn)練使用的COCO數(shù)據(jù)量太大了,我不想下載,我就直接用test做測試了,但是里面的代碼核心還是一樣的。當(dāng)然我會(huì)把train的代碼也放在這里大家可以用在自己的數(shù)據(jù)上訓(xùn)練。

    2024年02月11日
    瀏覽(12)
  • 【YOLO系列】YOLOv3論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    【YOLO系列】YOLOv3論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    YOLOv3(《Yolov3:An incremental improvement》)是Joseph Redmon大佬關(guān)于YOLO系列的最后一篇,由于他反對(duì)將YOLO用于軍事和隱私窺探,2020年2月宣布停止更新YOLO。 ?YOLOv3在YOLOv2的基礎(chǔ)上改良了網(wǎng)絡(luò)的主干,利用多尺度特征圖進(jìn)行檢測,改進(jìn)了多個(gè)獨(dú)立的Logistic regression分類器來取代softmax來

    2024年02月07日
    瀏覽(32)
  • 【YOLO系列】YOLOv7論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    【YOLO系列】YOLOv7論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    終于讀到傳說中的YOLOv7了~???? 這篇是在美團(tuán)的v6出來不到一個(gè)月就高調(diào)登場,作者還是我們熟悉的AB大神(對(duì),就是v4那個(gè)),讀起來又是“熟悉”的感覺(貫穿了我的整個(gè)五一假期(╯-_-)╯╧╧)。 其實(shí)關(guān)于YOLOv7的網(wǎng)絡(luò)結(jié)構(gòu)還有很多細(xì)節(jié)值得深入研究,以及代碼

    2024年02月02日
    瀏覽(28)
  • 【YOLO系列】YOLOv1論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    【YOLO系列】YOLOv1論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    從這篇開始,我們將進(jìn)入YOLO的學(xué)習(xí)。YOLO是目前比較流行的目標(biāo)檢測算法,速度快且結(jié)構(gòu)簡單,其他的目標(biāo)檢測算法如RCNN系列,以后有時(shí)間的話再介紹。 本文主要介紹的是YOLOV1,這是由以Joseph Redmon為首的大佬們于2015年提出的一種新的目標(biāo)檢測算法。它與之前的目標(biāo)檢測算法

    2024年02月04日
    瀏覽(47)
  • 【YOLO系列】YOLOv2論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    【YOLO系列】YOLOv2論文超詳細(xì)解讀(翻譯 +學(xué)習(xí)筆記)

    時(shí)隔一年,YOLOv2隆重登場,新的YOLO版本論文叫《YOLO9000: Better, Faster, Stronger》,作者 Joseph Redmon 和 Ali Farhadi 在 YOLOv1 的基礎(chǔ)上,進(jìn)行了大量改進(jìn),提出了 YOLOv2 和 YOLO9000,重點(diǎn)解決YOLOv1召回率和定位精度方面的不足。 論文原文:[1612.08242] YOLO9000: Better, Faster, Stronger (arxiv.org) 項(xiàng)

    2023年04月08日
    瀏覽(32)
  • YOLOv5目標(biāo)檢測學(xué)習(xí)(1):yolo系列算法的基礎(chǔ)概念

    YOLOv5目標(biāo)檢測學(xué)習(xí)(1):yolo系列算法的基礎(chǔ)概念

    提示:文章寫完后,目錄可以自動(dòng)生成,如何生成可參考右邊的幫助文檔 關(guān)于深度學(xué)習(xí)目標(biāo)檢測,有許多概念性的東西需要先了解一下。這里主要以基于深度學(xué)習(xí)的目標(biāo)檢測算法的部署實(shí)現(xiàn)來學(xué)習(xí)。 以yolov5為例: 使用YOLOv5進(jìn)行車輛和行人的目標(biāo)檢測通常涉及以下步驟: 數(shù)據(jù)

    2024年04月09日
    瀏覽(24)
  • 目標(biāo)檢測算法(R-CNN,fast R-CNN,faster R-CNN,yolo,SSD,yoloV2,yoloV3,yoloV4,yoloV5,yoloV6,yoloV7)

    目標(biāo)檢測算法(R-CNN,fast R-CNN,faster R-CNN,yolo,SSD,yoloV2,yoloV3,yoloV4,yoloV5,yoloV6,yoloV7)

    深度學(xué)習(xí)目前已經(jīng)應(yīng)用到了各個(gè)領(lǐng)域,應(yīng)用場景大體分為三類:物體識(shí)別,目標(biāo)檢測,自然語言處理。 目標(biāo)檢測可以理解為是物體識(shí)別和物體定位的綜合 ,不僅僅要識(shí)別出物體屬于哪個(gè)分類,更重要的是得到物體在圖片中的具體位置。 為了完成這兩個(gè)任務(wù),目標(biāo)檢測模型分

    2024年02月02日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包