国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

YOLOv5_5.0訓(xùn)練自己的數(shù)據(jù)集 RuntimeError: result type Float can‘t be cast to the desired output type long int

這篇具有很好參考價(jià)值的文章主要介紹了YOLOv5_5.0訓(xùn)練自己的數(shù)據(jù)集 RuntimeError: result type Float can‘t be cast to the desired output type long int。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

目錄

第一步:下載YOLOv5代碼,并配置環(huán)境,測(cè)試一下是否有無環(huán)境問題

第二步:數(shù)據(jù)集格式的轉(zhuǎn)換與劃分

第三步:修改配置文件,準(zhǔn)備訓(xùn)練


第一步:下載YOLOv5代碼,并配置環(huán)境,測(cè)試一下是否有無環(huán)境問題

yolov5_5.0源代碼開源地址:yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

1.源代碼下載后右擊選擇PyCharm打開,等待一會(huì),會(huì)彈出一個(gè)要你配置環(huán)境的對(duì)話框,關(guān)掉它,我們自己配置環(huán)境。

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

配置環(huán)境: 點(diǎn)擊【文件】->【設(shè)置】->【Python解釋器】,選擇相應(yīng)的環(huán)境【我的是:pytorch】

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

配置要有個(gè)一兩分鐘,等待一下

2.找到【detect.py】,右擊運(yùn)行,報(bào)錯(cuò)如下:

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

原因:沒有放權(quán)重文件進(jìn)去,下載地址:權(quán)重地址

解決方法:下載后放到項(xiàng)目文件中去。

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

3.再次運(yùn)行【detect.py】結(jié)果:在D:\DeepLearning\projectone\yolov5-5.0\runs\detect\exp2中生成了預(yù)測(cè)的結(jié)果圖片,但是沒有預(yù)測(cè)框?????

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

?解決方法1:在53行添加如下代碼:

cudnn.benchmark = True

添加后就是這樣的:

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

然后再運(yùn)行【detect.py】,結(jié)果如下,有了預(yù)測(cè)框,但是出現(xiàn)的問題就是檢測(cè)速度變慢了,具體也不知道為啥,有懂得小伙伴可以留言吶!!

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

解決方法2:在【detect.py】,定位到32行,注釋掉原來的代碼,更改為

half = False

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

結(jié)果:預(yù)測(cè)框就出現(xiàn)了?。。?!

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

經(jīng)過以上測(cè)試,說明我們得環(huán)境是沒有問題的,可以進(jìn)行下一步啦。

---------------------------------------------------手動(dòng)分割線---------------------------------------------------------------

第二步:數(shù)據(jù)集格式的轉(zhuǎn)換與劃分

參考博客:

(70條消息) 使用Yolov5訓(xùn)練自己制作的數(shù)據(jù)集,快速上手_佐咖的博客-CSDN博客_yolov5數(shù)據(jù)集格式

我使用的是Make Sense在線標(biāo)注,還是挺方便的,不過要注意一次不要導(dǎo)入太多圖片,因?yàn)槭窃诰€網(wǎng)頁上的操作,要是誤關(guān)了網(wǎng)頁,就要重來了。。。使用很簡(jiǎn)單,這里不贅述。

標(biāo)注完后得到一份壓縮包:

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

解壓后得到xml文件:

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

下面開始對(duì)標(biāo)注的格式進(jìn)行轉(zhuǎn)換,并劃分?jǐn)?shù)據(jù)集,這里是VOC格式

1.首先創(chuàng)建VOC格式數(shù)據(jù)集文件格式:先對(duì)格式做個(gè)說明:這里是劃分前的文件夾形式,自己按照如下格式創(chuàng)建好文件夾:(說明:dataset是我D盤下的一個(gè)文件夾,這里自己定,我沒有把VOCdevkit數(shù)據(jù)集文件夾放到y(tǒng)olo項(xiàng)目根目錄中

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

?在創(chuàng)建好文件夾后,將圖片放入JPEGImages,將makesense導(dǎo)出的xml文件放入Annotations。

2.轉(zhuǎn)換腳本:主要修改一下路徑

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
import random
from shutil import copyfile

classes = ["cat","dog","fox"]        ## 這里要寫好標(biāo)簽對(duì)應(yīng)的類

TRAIN_RATIO = 80     # 表示將數(shù)據(jù)集劃分為訓(xùn)練集和驗(yàn)證集,按照2:8比例來的

def clear_hidden_files(path):
    dir_list = os.listdir(path)
    for i in dir_list:
        abspath = os.path.join(os.path.abspath(path), i)
        if os.path.isfile(abspath):
            if i.startswith("._"):
                os.remove(abspath)
        else:
            clear_hidden_files(abspath)


def convert(size, box):
    dw = 1. / size[0]
    dh = 1. / size[1]
    x = (box[0] + box[1]) / 2.0
    y = (box[2] + box[3]) / 2.0
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return (x, y, w, h)


def convert_annotation(image_id):
    in_file = open('D:/DeepLearning/dataset/VOCdevkit/VOC2022/Annotations/%s.xml' % image_id)
    out_file = open('D:/DeepLearning/dataset/VOCdevkit/VOC2022/YOLOLabels/%s.txt' % image_id, 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)

    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
             float(xmlbox.find('ymax').text))
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
    in_file.close()
    out_file.close()


wd = os.getcwd()
wd = os.getcwd()
data_base_dir = os.path.join(wd, "D:/DeepLearning/dataset/VOCdevkit/")
if not os.path.isdir(data_base_dir):
    os.mkdir(data_base_dir)
work_sapce_dir = os.path.join(data_base_dir, "D:/DeepLearning/dataset/VOCdevkit/VOC2022/")
if not os.path.isdir(work_sapce_dir):
    os.mkdir(work_sapce_dir)
annotation_dir = os.path.join(work_sapce_dir, "D:/DeepLearning/dataset/VOCdevkit/VOC2022/Annotations/")
if not os.path.isdir(annotation_dir):
    os.mkdir(annotation_dir)
clear_hidden_files(annotation_dir)
image_dir = os.path.join(work_sapce_dir, "D:/DeepLearning/dataset/VOCdevkit/VOC2022/JPEGImages/")
if not os.path.isdir(image_dir):
    os.mkdir(image_dir)
clear_hidden_files(image_dir)
yolo_labels_dir = os.path.join(work_sapce_dir, "D:/DeepLearning/dataset/VOCdevkit/VOC2022/YOLOLabels/")
if not os.path.isdir(yolo_labels_dir):
    os.mkdir(yolo_labels_dir)
clear_hidden_files(yolo_labels_dir)
yolov5_images_dir = os.path.join(data_base_dir, "images/")
if not os.path.isdir(yolov5_images_dir):
    os.mkdir(yolov5_images_dir)
clear_hidden_files(yolov5_images_dir)
yolov5_labels_dir = os.path.join(data_base_dir, "labels/")
if not os.path.isdir(yolov5_labels_dir):
    os.mkdir(yolov5_labels_dir)
clear_hidden_files(yolov5_labels_dir)
yolov5_images_train_dir = os.path.join(yolov5_images_dir, "train/")
if not os.path.isdir(yolov5_images_train_dir):
    os.mkdir(yolov5_images_train_dir)
clear_hidden_files(yolov5_images_train_dir)
yolov5_images_test_dir = os.path.join(yolov5_images_dir, "val/")
if not os.path.isdir(yolov5_images_test_dir):
    os.mkdir(yolov5_images_test_dir)
clear_hidden_files(yolov5_images_test_dir)
yolov5_labels_train_dir = os.path.join(yolov5_labels_dir, "train/")
if not os.path.isdir(yolov5_labels_train_dir):
    os.mkdir(yolov5_labels_train_dir)
clear_hidden_files(yolov5_labels_train_dir)
yolov5_labels_test_dir = os.path.join(yolov5_labels_dir, "val/")
if not os.path.isdir(yolov5_labels_test_dir):
    os.mkdir(yolov5_labels_test_dir)
clear_hidden_files(yolov5_labels_test_dir)

train_file = open(os.path.join(wd, "yolov5_train.txt"), 'w')
test_file = open(os.path.join(wd, "yolov5_val.txt"), 'w')
train_file.close()
test_file.close()
train_file = open(os.path.join(wd, "yolov5_train.txt"), 'a')
test_file = open(os.path.join(wd, "yolov5_val.txt"), 'a')
list_imgs = os.listdir(image_dir)  # list image files
prob = random.randint(1, 100)
print("Probability: %d" % prob)
for i in range(0, len(list_imgs)):
    path = os.path.join(image_dir, list_imgs[i])
    if os.path.isfile(path):
        image_path = image_dir + list_imgs[i]
        voc_path = list_imgs[i]
        (nameWithoutExtention, extention) = os.path.splitext(os.path.basename(image_path))
        (voc_nameWithoutExtention, voc_extention) = os.path.splitext(os.path.basename(voc_path))
        annotation_name = nameWithoutExtention + '.xml'
        annotation_path = os.path.join(annotation_dir, annotation_name)
        label_name = nameWithoutExtention + '.txt'
        label_path = os.path.join(yolo_labels_dir, label_name)
    prob = random.randint(1, 100)
    print("Probability: %d" % prob)
    if (prob < TRAIN_RATIO):  # train dataset
        if os.path.exists(annotation_path):
            train_file.write(image_path + '\n')
            convert_annotation(nameWithoutExtention)  # convert label
            copyfile(image_path, yolov5_images_train_dir + voc_path)
            copyfile(label_path, yolov5_labels_train_dir + label_name)
    else:  # test dataset
        if os.path.exists(annotation_path):
            test_file.write(image_path + '\n')
            convert_annotation(nameWithoutExtention)  # convert label
            copyfile(image_path, yolov5_images_test_dir + voc_path)
            copyfile(label_path, yolov5_labels_test_dir + label_name)
train_file.close()
test_file.close()

轉(zhuǎn)換后結(jié)果:

1)在YOLOLabels中生成了txt格式的標(biāo)注文件,完成了xml到txt格式的轉(zhuǎn)換;

2)在VOCdevkit下生成了兩個(gè)文件夾Imageslabels,分別存放圖片和txt格式的標(biāo)注文件

Images下存放訓(xùn)練集和驗(yàn)證集圖片,比例8:2,labels下存放訓(xùn)練集和驗(yàn)證集的標(biāo)注文件,比例8:2,完成了訓(xùn)練集與驗(yàn)證集的劃分。

具體格式如下:

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

?第三步:修改配置文件,準(zhǔn)備訓(xùn)練

1.在【data】中,復(fù)制coco.yaml,直接ctrl+c,然后ctrl+v,重命名為【my_obstacle.yaml】,名字可任意,然后保存在【data】下

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

修改【my_obstacle.yaml】文件內(nèi)容,我這里的訓(xùn)練集驗(yàn)證集路徑不在yolo根目錄下,所以都是寫的絕對(duì)路徑。

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

2.在【models】文件夾下復(fù)制yolov5s.yaml,重命名為【yolov5s_obstacle.yaml】,名字可任意,然后保存在【models】下

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

修改類別為3

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

3.修改【train.py】

1)weights----模型權(quán)重在yolo項(xiàng)目根目錄下

2)cfg----在pycharm左邊目錄欄,右擊【yolov5s_obstacle.yaml】,復(fù)制路徑,來自內(nèi)容根的路徑,粘貼即可

3)data----在pycharm左邊目錄欄,右擊【my_obstacle.yaml】,復(fù)制路徑,來自內(nèi)容根的路徑,粘貼即可

4)epochs----訓(xùn)練輪數(shù),我這里是100輪

5)batch_size----根據(jù)電腦性能修改,我這里只能是1才能跑起來(我的顯卡GTX1650)

6)workers----我一直用的是1,這里我不確定,可以自己嘗試一下

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

?然后開始運(yùn)行【train.py】

訓(xùn)練過程中輸出的參數(shù):剛好在訓(xùn)練時(shí)寫這篇博客,貼個(gè)圖吧

yolov5訓(xùn)練自己數(shù)據(jù)集,python,開發(fā)語言,深度學(xué)習(xí),人工智能

每次訓(xùn)練都要網(wǎng)上找個(gè)博客看步驟,這次索性自己寫一個(gè),記錄一下

如有錯(cuò)誤請(qǐng)指正!

2022.11.28補(bǔ)充:

今天在改網(wǎng)絡(luò)結(jié)構(gòu),開始訓(xùn)練的時(shí)候會(huì)報(bào)錯(cuò):

RuntimeError: result type Float can‘t be cast to the desired output type long int

解決方法參考:

(75條消息) 一步真實(shí)解決RuntimeError: result type Float can‘t be cast to the desired output type long int_藍(lán)胖胖?的博客-CSDN博客文章來源地址http://www.zghlxwxcb.cn/news/detail-666796.html

到了這里,關(guān)于YOLOv5_5.0訓(xùn)練自己的數(shù)據(jù)集 RuntimeError: result type Float can‘t be cast to the desired output type long int的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【YOLO】yolov5訓(xùn)練自己的數(shù)據(jù)集

    【YOLO】yolov5訓(xùn)練自己的數(shù)據(jù)集

    【Python】樸實(shí)無華的yolov5環(huán)境配置(一) ??上面前期教程中,大致介紹了yolov5開發(fā)環(huán)境的配置方法和yolov5項(xiàng)目的基本結(jié)構(gòu),下一步就是基于yolov5預(yù)訓(xùn)練模型來訓(xùn)練自己的數(shù)據(jù)集,這對(duì)于只是想要使用yolov5這個(gè)工具的人,還是想要深入研究yolov5類似的目標(biāo)識(shí)別算法的人,都是

    2024年02月11日
    瀏覽(93)
  • YOLOv5訓(xùn)練自己的數(shù)據(jù)集實(shí)現(xiàn)視頻的識(shí)別

    YOLOv5訓(xùn)練自己的數(shù)據(jù)集實(shí)現(xiàn)視頻的識(shí)別

    寫在前面 我本來是使用這個(gè)模型進(jìn)行手寫簽名的定位,但是因?yàn)楸荣惖闹鬓k方原因,數(shù)據(jù)不允許公開,所以我使用動(dòng)物世界的一段開頭視屏來制作我的數(shù)據(jù)集。這整個(gè)模型跑通的過程中,我參考了很多不錯(cuò)的博客,寫這篇博客的原因是記錄一下我的所見所感。我的模型是在

    2024年02月02日
    瀏覽(94)
  • YOLOv5-第Y2周:訓(xùn)練自己的數(shù)據(jù)集

    YOLOv5-第Y2周:訓(xùn)練自己的數(shù)據(jù)集

    ?? 本文為??365天深度學(xué)習(xí)訓(xùn)練營(yíng) 中的學(xué)習(xí)記錄博客 ?? 原作者:K同學(xué)啊 電腦系統(tǒng):Windows 10 語言環(huán)境:Python 3.8.5 編譯器:colab在線編譯 深度學(xué)習(xí)環(huán)境:PyTorch 文件夾目錄結(jié)構(gòu): ??主目錄: paper_ data (創(chuàng)建個(gè)文件夾,將數(shù)據(jù)放到這里) Annotations (放置我們的.xm文件) images (放置圖

    2024年01月20日
    瀏覽(96)
  • yolov5-7.0訓(xùn)練自己的VOC數(shù)據(jù)集

    yolov5-7.0訓(xùn)練自己的VOC數(shù)據(jù)集

    這個(gè)筆記可能只適用于7.0版本的,寫這個(gè)筆記主要是給工作室伙伴參考的,大佬請(qǐng)繞行 有錯(cuò)誤之處歡迎指出 yolov5的GitHub倉(cāng)庫(kù)地址:Release v7.0 - YOLOv5 SOTA Realtime Instance Segmentation · ultralytics/yolov5 (github.com) 需要下載源碼和預(yù)訓(xùn)練模型 將源碼解壓,在其文件夾里面新建一個(gè)weights文

    2024年02月12日
    瀏覽(86)
  • YOLOv5如何訓(xùn)練自己的數(shù)據(jù)集(生活垃圾數(shù)據(jù)集為例)

    YOLOv5如何訓(xùn)練自己的數(shù)據(jù)集(生活垃圾數(shù)據(jù)集為例)

    本文主要介紹如何利用YOLOv5訓(xùn)練自己的數(shù)據(jù)集 以生活垃圾數(shù)據(jù)集為例子 生活垃圾數(shù)據(jù)集(YOLO版) 點(diǎn)擊這里直接下載本文生活垃圾數(shù)據(jù)集 生活垃圾數(shù)據(jù)集組成: YOLO數(shù)據(jù)有三個(gè)要點(diǎn) images,存放圖片 labes,對(duì)應(yīng)Images圖片的標(biāo)簽 data_txt, 劃分images圖片的數(shù)據(jù)集,形成三個(gè)txt 文件

    2024年02月07日
    瀏覽(91)
  • 通過AutoDL使用yolov5.7訓(xùn)練自己的數(shù)據(jù)集

    通過AutoDL使用yolov5.7訓(xùn)練自己的數(shù)據(jù)集

    AutoDL 選擇基礎(chǔ)鏡像 創(chuàng)建之后 點(diǎn)擊 開機(jī) ,也可在更多里面選擇無卡模式開機(jī)(此模式不能訓(xùn)練,但是可以上傳文件且更便宜)。開機(jī)之后,上傳代碼可通過xshell工具或者可以通過快捷工具JupyterLab。我兩種方法都來演示一遍。yolov5代碼 復(fù)制登錄指令 回車后會(huì)要求輸入密碼,

    2024年02月05日
    瀏覽(89)
  • AI學(xué)習(xí)筆記四:yolov5訓(xùn)練自己的數(shù)據(jù)集

    AI學(xué)習(xí)筆記四:yolov5訓(xùn)練自己的數(shù)據(jù)集

    若該文為原創(chuàng)文章,轉(zhuǎn)載請(qǐng)注明原文出處。 一般情況下,大部分人的電腦都是沒有cpu的,cpu也是可以訓(xùn)練的,但花費(fèi)的時(shí)間太長(zhǎng),實(shí)際200張圖片,使用CPU訓(xùn)練300輪花了3天,本章記錄使用云服務(wù)器來訓(xùn)練自己的數(shù)據(jù)集。 使用的云服務(wù)器是AutoDL,一直在使用,性價(jià)比還是比較高的

    2024年02月15日
    瀏覽(75)
  • YOLOv5訓(xùn)練自己的數(shù)據(jù)集(含數(shù)據(jù)采集、數(shù)據(jù)標(biāo)注、數(shù)據(jù)預(yù)處理、借助colab訓(xùn)練)

    YOLOv5訓(xùn)練自己的數(shù)據(jù)集(含數(shù)據(jù)采集、數(shù)據(jù)標(biāo)注、數(shù)據(jù)預(yù)處理、借助colab訓(xùn)練)

    YOLOv5 github:GitHub - ultralytics/yolov5: YOLOv5 ?? in PyTorch ONNX CoreML TFLite 先從github下載源碼到本地,用pycharm打開工程 ? 本次采集數(shù)據(jù)采用的方式是錄取視頻,然后用python截取視頻幀當(dāng)做圖片,這是處理代碼: ? 可以使用labelimg工具、make sense(Make Sense)在線標(biāo)注,注意數(shù)據(jù)集需要與

    2024年02月05日
    瀏覽(97)
  • Yolov5 + Deepsort 重新訓(xùn)練自己的數(shù)據(jù)(保姆級(jí)超詳細(xì))

    Yolov5 + Deepsort 重新訓(xùn)練自己的數(shù)據(jù)(保姆級(jí)超詳細(xì))

    從下面github庫(kù)中拿代碼: https://github.com/mikel-brostrom/Yolov5_DeepSort_Pytorch https://github.com/mikel-brostrom/Yolov5_DeepSort_Pytorch GitHub - Sharpiless/Yolov5-Deepsort: 最新版本yolov5+deepsort目標(biāo)檢測(cè)和追蹤,能夠顯示目標(biāo)類別,支持5.0版本可訓(xùn)練自己數(shù)據(jù)集 最新版本yolov5+deepsort目標(biāo)檢測(cè)和追蹤,能夠

    2024年01月19日
    瀏覽(93)
  • 手把手教你如何使用YOLOV5訓(xùn)練自己的數(shù)據(jù)集

    手把手教你如何使用YOLOV5訓(xùn)練自己的數(shù)據(jù)集

    YOLOV5是目前最火熱的目標(biāo)檢測(cè)算法之一。YOLOV5為一階段檢測(cè)算法因此它的速度非常之快。可以在復(fù)雜場(chǎng)景中達(dá)到60禎的實(shí)時(shí)檢測(cè)頻率。 接下來本文將詳細(xì)的講述如何使用YOLOV5去訓(xùn)練自己的數(shù)據(jù)集 YOLOV5中使用了Tensorboard和Wandb來可視化訓(xùn)練,其中Wandb配置可以看這篇文章: Wand

    2024年02月05日
    瀏覽(95)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包