国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

YOLOv5如何訓練自己的數(shù)據(jù)集(生活垃圾數(shù)據(jù)集為例)

這篇具有很好參考價值的文章主要介紹了YOLOv5如何訓練自己的數(shù)據(jù)集(生活垃圾數(shù)據(jù)集為例)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

前言

本文主要介紹如何利用YOLOv5訓練自己的數(shù)據(jù)集

1、數(shù)據(jù)標注說明

以生活垃圾數(shù)據(jù)集為例子

  1. 生活垃圾數(shù)據(jù)集(YOLO版)
  2. 點擊這里直接下載本文生活垃圾數(shù)據(jù)集

生活垃圾數(shù)據(jù)集組成:

【有害垃圾】:電池(1 號、2 號、5 號)、過期藥品或內(nèi)包裝等;
【可回收垃圾】:易拉罐、小號礦泉水瓶;
【廚余垃圾】:小土豆、切過的白蘿卜、胡蘿卜,尺寸為電池大??;
【其他垃圾】:瓷片、鵝卵石(小土豆大?。?、磚塊等。

YOLO數(shù)據(jù)有三個要點

  1. images,存放圖片
  2. labes,對應Images圖片的標簽
  3. data_txt, 劃分images圖片的數(shù)據(jù)集,形成三個txt

文件結構:

----data\
    |----classes.txt  # 標簽種類
    |----data-txt\  # 數(shù)據(jù)集文件集合
    |    |----test.txt
    |    |----train.txt
    |    |----val.txt
    |----images\ # 數(shù)據(jù)集圖片
    |    |----test\
    |    |    |----fimg_23.jpg
    |    |    |----fimg_38.jpg
    |    |    |----.....
    |    |----train\
    |    |    |----fimg_1.jpg
    |    |    |----fimg_2.jpg
    |    |    |----.....
    |    |----val\
    |    |    |----fimg_4.jpg
    |    |    |----fimg_6.jpg
    |    |    |----.....
    |----labels\  # yolo標簽
    |    |----test\
    |    |    |----fimg_23.txt
    |    |    |----fimg_38.txt
    |    |    |----.....
    |    |----train\
    |    |    |----fimg_1.txt
    |    |    |----fimg_2.txt
    |    |    |----.....
    |    |----val\
    |    |    |----fimg_4.txt
    |    |    |----fimg_6.txt
    |    |    |----.....
    |----waste-classification.yaml  # 數(shù)據(jù)集配置文件

2、定義自己模型文件

1、定義yolov5網(wǎng)絡模型文件

如 models/yolov5l.yaml

# YOLOv5 ?? by Ultralytics, GPL-3.0 license

# Parameters
nc: 4  # number of classes  類別,這里的類別一共四種
depth_multiple: 0.33  # model depth multiple ,模型寬度
width_multiple: 0.50  # layer channel multiple ,通道數(shù)
anchors:
  - [10,13, 16,30, 33,23]  # P3/8
  - [30,61, 62,45, 59,119]  # P4/16
  - [116,90, 156,198, 373,326]  # P5/32

# YOLOv5 v6.0 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Conv, [64, 6, 2, 2]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 3, C3, [128]],
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 6, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 3, C3, [1024]],
   [-1, 1, SPPF, [1024, 5]],  # 9
  ]

# YOLOv5 v6.0 head
head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  # 13

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 17 (P3/8-small)

   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 14], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)

   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 10], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)

   [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]

2、在data/目標下,定義自己數(shù)據(jù)集的配置文件

如data/waste-classification.yaml

train: data/data-txt/train.txt
val: data/data-txt/val.txt
test: data/data-txt/test.txt

# Classes
nc: 4 # number of classes
names: ['recyclable waste', 'hazardous waste','kitchen waste','other waste']  # class names

3、訓練模型

1、激活python環(huán)境

conda activate reid-pytorch  # 這里我是激活reid-pytorch環(huán)境

2、在服務器上訓練自己的模型

# 注意,這里是linux服務器上訓練命令
# nohup 是后臺運行,--batch-size 每次送入的圖片數(shù), --epochs 訓練多少輪  --cfg 模型配置  --data 數(shù)據(jù)集配置
#  --weights 以哪個權重訓練  --device 在那個顯卡上訓練(這里一共有四張顯卡)  > 重定向,將訓練的結果輸出到myout.file,方便查看
nohup python train.py --batch-size 16 --epochs 200 --cfg models/yolov5s.yaml --data data/waste-classification.yaml --weights weights/yolov5s.pt --device 0,1,2,3 > myout.file 2>&1 &

# 如果是本地電腦上訓練,直接在pycharm的train.py添加上述參數(shù),直接訓練
--batch-size 16 --epochs 200
--cfg models/yolov5s.yaml
--data data/waste-classification.yaml 
--weights weights/yolov5s.pt
--device 0  # 采用顯卡0進行訓練

YOLOv5如何訓練自己的數(shù)據(jù)集(生活垃圾數(shù)據(jù)集為例),目標檢測,YOLO,深度學習,機器學習
YOLOv5如何訓練自己的數(shù)據(jù)集(生活垃圾數(shù)據(jù)集為例),目標檢測,YOLO,深度學習,機器學習

查看自己電腦顯卡情況

YOLOv5如何訓練自己的數(shù)據(jù)集(生活垃圾數(shù)據(jù)集為例),目標檢測,YOLO,深度學習,機器學習文章來源地址http://www.zghlxwxcb.cn/news/detail-730204.html

參考文獻

  1. YOLOv5s網(wǎng)絡模型講解(一看就會)
  2. 生活垃圾數(shù)據(jù)集(YOLO版)
  3. 雙向控制舵機(樹莓派版)

到了這里,關于YOLOv5如何訓練自己的數(shù)據(jù)集(生活垃圾數(shù)據(jù)集為例)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 【零基礎玩轉(zhuǎn)yolov5】yolov5訓練自己的數(shù)據(jù)集(CPU訓練+GPU訓練)

    【零基礎玩轉(zhuǎn)yolov5】yolov5訓練自己的數(shù)據(jù)集(CPU訓練+GPU訓練)

    ?博主也是最近開始玩yolov5的,甚至也是最近開始使用python的,很多東西都沒有接觸過,因此訓練自己的數(shù)據(jù)集花了不少時間,所以想寫篇博客記錄一下,希望同樣是零基礎的小伙伴們可以更加輕松的上手。同時大家如果發(fā)現(xiàn)了錯誤和理解偏差,歡迎指正。 參考資料: Yolo

    2024年02月06日
    瀏覽(30)
  • yolov5訓練自己的數(shù)據(jù)集問題排除

    D:ProgramDataAnaconda3envsyolov5python.exe D:/yxt/yolov5-master/train.py Traceback (most recent call last): ? File \\\"D:ProgramDataAnaconda3envsyolov5libsite-packagesgit__init__.py\\\", line 140, in module ? ? refresh() ? File \\\"D:ProgramDataAnaconda3envsyolov5libsite-packagesgit__init__.py\\\", line 127, in refresh ? ? if not Git.refresh(p

    2024年04月11日
    瀏覽(96)
  • 【YOLO】yolov5訓練自己的數(shù)據(jù)集

    【YOLO】yolov5訓練自己的數(shù)據(jù)集

    【Python】樸實無華的yolov5環(huán)境配置(一) ??上面前期教程中,大致介紹了yolov5開發(fā)環(huán)境的配置方法和yolov5項目的基本結構,下一步就是基于yolov5預訓練模型來訓練自己的數(shù)據(jù)集,這對于只是想要使用yolov5這個工具的人,還是想要深入研究yolov5類似的目標識別算法的人,都是

    2024年02月11日
    瀏覽(93)
  • YOLOv5-第Y2周:訓練自己的數(shù)據(jù)集

    YOLOv5-第Y2周:訓練自己的數(shù)據(jù)集

    ?? 本文為??365天深度學習訓練營 中的學習記錄博客 ?? 原作者:K同學啊 電腦系統(tǒng):Windows 10 語言環(huán)境:Python 3.8.5 編譯器:colab在線編譯 深度學習環(huán)境:PyTorch 文件夾目錄結構: ??主目錄: paper_ data (創(chuàng)建個文件夾,將數(shù)據(jù)放到這里) Annotations (放置我們的.xm文件) images (放置圖

    2024年01月20日
    瀏覽(96)
  • yolov5-7.0訓練自己的VOC數(shù)據(jù)集

    yolov5-7.0訓練自己的VOC數(shù)據(jù)集

    這個筆記可能只適用于7.0版本的,寫這個筆記主要是給工作室伙伴參考的,大佬請繞行 有錯誤之處歡迎指出 yolov5的GitHub倉庫地址:Release v7.0 - YOLOv5 SOTA Realtime Instance Segmentation · ultralytics/yolov5 (github.com) 需要下載源碼和預訓練模型 將源碼解壓,在其文件夾里面新建一個weights文

    2024年02月12日
    瀏覽(86)
  • YOLOv5訓練自己的數(shù)據(jù)集實現(xiàn)視頻的識別

    YOLOv5訓練自己的數(shù)據(jù)集實現(xiàn)視頻的識別

    寫在前面 我本來是使用這個模型進行手寫簽名的定位,但是因為比賽的主辦方原因,數(shù)據(jù)不允許公開,所以我使用動物世界的一段開頭視屏來制作我的數(shù)據(jù)集。這整個模型跑通的過程中,我參考了很多不錯的博客,寫這篇博客的原因是記錄一下我的所見所感。我的模型是在

    2024年02月02日
    瀏覽(94)
  • AI學習筆記四:yolov5訓練自己的數(shù)據(jù)集

    AI學習筆記四:yolov5訓練自己的數(shù)據(jù)集

    若該文為原創(chuàng)文章,轉(zhuǎn)載請注明原文出處。 一般情況下,大部分人的電腦都是沒有cpu的,cpu也是可以訓練的,但花費的時間太長,實際200張圖片,使用CPU訓練300輪花了3天,本章記錄使用云服務器來訓練自己的數(shù)據(jù)集。 使用的云服務器是AutoDL,一直在使用,性價比還是比較高的

    2024年02月15日
    瀏覽(75)
  • 通過AutoDL使用yolov5.7訓練自己的數(shù)據(jù)集

    通過AutoDL使用yolov5.7訓練自己的數(shù)據(jù)集

    AutoDL 選擇基礎鏡像 創(chuàng)建之后 點擊 開機 ,也可在更多里面選擇無卡模式開機(此模式不能訓練,但是可以上傳文件且更便宜)。開機之后,上傳代碼可通過xshell工具或者可以通過快捷工具JupyterLab。我兩種方法都來演示一遍。yolov5代碼 復制登錄指令 回車后會要求輸入密碼,

    2024年02月05日
    瀏覽(89)
  • YOLOv5訓練自己的數(shù)據(jù)集(含數(shù)據(jù)采集、數(shù)據(jù)標注、數(shù)據(jù)預處理、借助colab訓練)

    YOLOv5訓練自己的數(shù)據(jù)集(含數(shù)據(jù)采集、數(shù)據(jù)標注、數(shù)據(jù)預處理、借助colab訓練)

    YOLOv5 github:GitHub - ultralytics/yolov5: YOLOv5 ?? in PyTorch ONNX CoreML TFLite 先從github下載源碼到本地,用pycharm打開工程 ? 本次采集數(shù)據(jù)采用的方式是錄取視頻,然后用python截取視頻幀當做圖片,這是處理代碼: ? 可以使用labelimg工具、make sense(Make Sense)在線標注,注意數(shù)據(jù)集需要與

    2024年02月05日
    瀏覽(97)
  • Yolov5 + Deepsort 重新訓練自己的數(shù)據(jù)(保姆級超詳細)

    Yolov5 + Deepsort 重新訓練自己的數(shù)據(jù)(保姆級超詳細)

    從下面github庫中拿代碼: https://github.com/mikel-brostrom/Yolov5_DeepSort_Pytorch https://github.com/mikel-brostrom/Yolov5_DeepSort_Pytorch GitHub - Sharpiless/Yolov5-Deepsort: 最新版本yolov5+deepsort目標檢測和追蹤,能夠顯示目標類別,支持5.0版本可訓練自己數(shù)據(jù)集 最新版本yolov5+deepsort目標檢測和追蹤,能夠

    2024年01月19日
    瀏覽(93)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包