国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

YOLOv5超參數(shù)、遷移訓(xùn)練設(shè)置

這篇具有很好參考價(jià)值的文章主要介紹了YOLOv5超參數(shù)、遷移訓(xùn)練設(shè)置。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

目錄

一、超參數(shù)設(shè)置

1. 定義自適應(yīng)函數(shù)

2. 定義模型深度和寬度

二、遷移訓(xùn)練設(shè)置

1. 為遷移訓(xùn)練設(shè)置凍結(jié)層


一、超參數(shù)設(shè)置

1. 定義自適應(yīng)函數(shù)

遺傳算法中適應(yīng)度(fitness)是描述個(gè)體性能的主要指標(biāo),直接影響到算法的收斂速度以及能否找到最優(yōu)解。適應(yīng)度是訓(xùn)練中尋求最大化的一個(gè)值。YOLOv5默認(rèn)的適應(yīng)度函數(shù)為各指標(biāo)的加權(quán)組合:mAP_0.5占10%權(quán)重;mAP_0.5:0.95占90%權(quán)重,不存在Precision和Recall。

定義的位置在./utils/metric.py:

def fitness(x):
    # Model fitness as a weighted combination of metrics
    w = [0.0, 0.0, 0.1, 0.9]  # weights for [P, R, mAP@0.5, mAP@0.5:0.95]
    return (x[:, :4] * w).sum(1)

2. 定義模型深度和寬度

YOLOv5引入了depth_multiple和width_multiple系數(shù)來得到不同大小模型:

nc: 1  # number of classes
depth_multiple: 0.33  # model depth multiple
width_multiple: 0.50  # layer channel multiple

depth_multiple表示channel的縮放系數(shù),就是將配置里面的backbone和head部分有關(guān)通道的設(shè)置,全部乘以該系數(shù)即可。而width_multiple表示BottleneckCSP模塊的層縮放系數(shù),將所有的BottleneckCSP模塊的number系數(shù)乘上該參數(shù)就可以最終的層個(gè)數(shù)??梢园l(fā)現(xiàn)通過這兩個(gè)參數(shù)就可以實(shí)現(xiàn)不同大小不同復(fù)雜度的模型設(shè)計(jì)。

同一文件下的backbone和head記錄了網(wǎng)絡(luò)結(jié)構(gòu):

# YOLOv5 v6.0 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Conv, [64, 6, 2, 2]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 3, C3, [128]],
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 6, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 3, C3, [1024]],
   [-1, 1, SPPF, [1024, 5]],  # 9
  ]

# YOLOv5 v6.0 head
head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  # 13

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 17 (P3/8-small)

   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 14], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)

   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 10], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)

   [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]

from:第一列;代表輸入來自哪一層,-1代表上一層,4代表第4層

number:第二列;卷積核的數(shù)量,最終數(shù)量需要乘上width

module:第三列;模塊名稱,包括:Conv Focus BottleneckCSP SPP?#

args:第四列;模塊的參數(shù)

二、遷移訓(xùn)練設(shè)置

1. 為遷移訓(xùn)練設(shè)置凍結(jié)層

通過凍結(jié)某些層進(jìn)行遷移訓(xùn)練可以實(shí)現(xiàn)在新模型上快速進(jìn)行重新訓(xùn)練,以節(jié)省訓(xùn)練資源。YOLOv5所有層的凍結(jié)通過設(shè)置其梯度為零來實(shí)現(xiàn),執(zhí)行的位置在train.py:

# Freeze
    freeze = [f'model.{x}.' for x in (freeze if len(freeze) > 1 else range(freeze[0]))]  # layers to freeze
    for k, v in model.named_parameters():
        v.requires_grad = True  # train all layers
        if any(x in k for x in freeze):
            LOGGER.info(f'freezing {k}')
            v.requires_grad = False

在./model/yolov5x.yaml可以查看網(wǎng)絡(luò)層:

backbone為0-9層

head為13-23層

backbone:
  # [from, number, module, args]
  [[-1, 1, Conv, [64, 6, 2, 2]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 3, C3, [128]],
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 6, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 3, C3, [1024]],
   [-1, 1, SPPF, [1024, 5]],  # 9
  ]

# YOLOv5 v6.0 head
head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  # 13

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 17 (P3/8-small)

   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 14], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)

   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 10], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)

   [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]

通過:

python train.py --freeze 10

凍結(jié)頭部進(jìn)行訓(xùn)練。

通過:

python train.py --freeze 24

凍結(jié)除了輸出層以外的所有層進(jìn)行訓(xùn)練。文章來源地址http://www.zghlxwxcb.cn/news/detail-479651.html

到了這里,關(guān)于YOLOv5超參數(shù)、遷移訓(xùn)練設(shè)置的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【零基礎(chǔ)玩轉(zhuǎn)yolov5】yolov5訓(xùn)練自己的數(shù)據(jù)集(CPU訓(xùn)練+GPU訓(xùn)練)

    【零基礎(chǔ)玩轉(zhuǎn)yolov5】yolov5訓(xùn)練自己的數(shù)據(jù)集(CPU訓(xùn)練+GPU訓(xùn)練)

    ?博主也是最近開始玩yolov5的,甚至也是最近開始使用python的,很多東西都沒有接觸過,因此訓(xùn)練自己的數(shù)據(jù)集花了不少時(shí)間,所以想寫篇博客記錄一下,希望同樣是零基礎(chǔ)的小伙伴們可以更加輕松的上手。同時(shí)大家如果發(fā)現(xiàn)了錯(cuò)誤和理解偏差,歡迎指正。 參考資料: Yolo

    2024年02月06日
    瀏覽(30)
  • yolov5ds-斷點(diǎn)訓(xùn)練、繼續(xù)訓(xùn)練、先終止訓(xùn)練并調(diào)整最終epoch(yolov5同樣適用)

    yolov5ds-斷點(diǎn)訓(xùn)練、繼續(xù)訓(xùn)練、先終止訓(xùn)練并調(diào)整最終epoch(yolov5同樣適用)

    ??yolov5 繼續(xù)訓(xùn)練 ??yolov5ds:Yolov5同時(shí)進(jìn)行目標(biāo)檢測和分割分割(yolov5ds作者的博客介紹) github地址:??yolov5ds 訓(xùn)練yolov5ds案例:用YOLOv5ds訓(xùn)練自己的數(shù)據(jù)集——同時(shí)檢測和分割 兩種情況: 訓(xùn)練過程中中斷了,繼續(xù)訓(xùn)練 訓(xùn)練完了,但是未收斂,在這個(gè)基礎(chǔ)上,還想用這個(gè)權(quán)

    2024年01月21日
    瀏覽(32)
  • 認(rèn)識(shí)YOLOv5模型結(jié)構(gòu)目錄

    認(rèn)識(shí)YOLOv5模型結(jié)構(gòu)目錄

    接上篇【文獻(xiàn)解讀】“MOBILEViT:輕量級(jí)、通用目的、移動(dòng)友好的視覺變換器”。-CSDN博客 YOLOv5是一個(gè)流行的機(jī)器學(xué)習(xí)模型,用于目標(biāo)檢測任務(wù)。根據(jù)您希望提升或修改的內(nèi)容,改進(jìn)YOLOv5可以涉及多個(gè)方面: 模型架構(gòu)(位于 /models ): 如果希望改變YOLOv5的架構(gòu),需要修改通常

    2024年01月21日
    瀏覽(22)
  • YOLOV5 訓(xùn)練

    YOLOV5 訓(xùn)練

    windows上安裝可以參考這篇知乎文章 自己準(zhǔn)備數(shù)據(jù)集 可以使用 labelImg 工具,直接 pip install labelimg 就可以安裝了。 命令行中輸入 labelImg 就可以運(yùn)行 標(biāo)注數(shù)據(jù)的輸出結(jié)果有多種過格式,VOC 、COCO 、YOLO等。 數(shù)據(jù)組織 先放目錄樹,建議先按照下面的目錄格式,準(zhǔn)備數(shù)據(jù)集。 我們

    2024年02月08日
    瀏覽(19)
  • yolov5——訓(xùn)練策略

    yolov5——訓(xùn)練策略

    yolov5的訓(xùn)練策略big big豐富,這也是yolov5漲分厲害的reason,目前yolov5的使用量也是非常大的,官網(wǎng)的star已經(jīng)23.5k了,無論是在遷移學(xué)習(xí)還是實(shí)際場景的應(yīng)用都是非常廣泛的。之前參加比賽,發(fā)現(xiàn)好幾頁的選手都在使用yolov5,確實(shí)有必要梳理一下,yolov5的訓(xùn)練策略。感覺這些策略

    2024年02月08日
    瀏覽(18)
  • yolov5訓(xùn)練結(jié)果解析

    yolov5訓(xùn)練結(jié)果解析

    yolov5訓(xùn)練結(jié)果的文件解析 1、weights訓(xùn)練好的模型,一般使用best.pt去進(jìn)行推理 2、confusion_matrix.png 混淆矩陣以矩陣形式將數(shù)據(jù)集中的記錄按照真實(shí)的類別與分類模型預(yù)測的類別判斷兩個(gè)標(biāo)準(zhǔn)進(jìn)行匯總。其中矩陣的行表示真實(shí)值,矩陣的列表示預(yù)測值。 TP(True Positive): 將正類預(yù)

    2024年02月06日
    瀏覽(23)
  • yolov5解讀,訓(xùn)練,復(fù)現(xiàn)

    yolov5解讀,訓(xùn)練,復(fù)現(xiàn)

    小白的第一篇csdn...最近在準(zhǔn)備小論文,大概率是目標(biāo)檢測方向了,沒經(jīng)驗(yàn),慢慢學(xué),本文只是跟著b站的天才up主一起訓(xùn)練和復(fù)現(xiàn),這里只是我記錄yolov5的學(xué)習(xí)歷程,都是大白話,沒有專業(yè)術(shù)語,肯定也會(huì)說錯(cuò)很多東西,但是我都想記錄在這里,這樣就不會(huì)忘記啦,如果有幸被

    2024年02月10日
    瀏覽(21)
  • YOLOv8/YOLOv7/YOLOv5系列改進(jìn)| 目錄一覽表

    ??魔改YOLO系列算法,助力漲點(diǎn),助力科研。通過添加注意力機(jī)制 SE/CBAM/CoordAtt/ECA /SimAM/CrissCrossAttention/ SKAttention/GAMAttention/S2-MLPv2/NAM 等;網(wǎng)絡(luò)輕量化方法通過更換主干特征提取網(wǎng)絡(luò)為 MobileNetV3/ShuffleNetV2/EfficientNetv2/Ghostnet/深度可分離卷積/PP-LCNet/mobileone/Ghostnetv2/ELAN 等;優(yōu)化原

    2023年04月20日
    瀏覽(33)
  • yolov5-7.0簡單訓(xùn)練教程

    yolov5-7.0簡單訓(xùn)練教程

    yolov5-7.0簡單訓(xùn)練教程。 可以自己去git上下載,沒有梯子的點(diǎn)這里去百度網(wǎng)盤下載資源 點(diǎn)擊下載資源包:objectdetection_script-master 將下載到的腳本目錄中的yolo文件夾內(nèi)的文件復(fù)制到y(tǒng)olov5-7.0的根目錄下。 Annotations:存放VOC格式的標(biāo)注的XML文件 JPEGImages:存放數(shù)據(jù)集里的圖片,圖片

    2024年02月02日
    瀏覽(27)
  • 使用Yolov5訓(xùn)練自己的模型

    使用Yolov5訓(xùn)練自己的模型

    本文主要介紹如何運(yùn)用開源Yolov5模型,結(jié)合自己的數(shù)據(jù),訓(xùn)練其他目標(biāo)檢測模型。 基礎(chǔ)準(zhǔn)備工作: anaconda 適用Yolov5的虛擬環(huán)境 git上下載Yolov5并調(diào)通測試代碼 https://github.com/ultralytics/yolov5 https://github.com/ultralytics/yolov5 本次用的環(huán)境: python==3.7 pytorch==1.7.1 torchvision==0.8.2 torchaud

    2024年02月05日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包