国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【計算機視覺】YOLOv8參數(shù)詳解(全面詳細(xì)、重點突出、大白話闡述小白也能看懂)

這篇具有很好參考價值的文章主要介紹了【計算機視覺】YOLOv8參數(shù)詳解(全面詳細(xì)、重點突出、大白話闡述小白也能看懂)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

comments description keywords

true

Master YOLOv8 settings and hyperparameters for improved model performance. Learn to use YOLO CLI commands, adjust training settings, and optimize YOLO tasks & modes.

YOLOv8, settings, hyperparameters, YOLO CLI commands, YOLO tasks, YOLO modes, Ultralytics documentation, model optimization, YOLOv8 training

YOLO 設(shè)置和超參數(shù)對模型的性能、速度和準(zhǔn)確性起著至關(guān)重要的作用。 這些設(shè)置和超參數(shù)可以影響模型開發(fā)過程各個階段的模型行為,包括訓(xùn)練、驗證和預(yù)測。

YOLOv8 yolo CLI 命令使用以下語法:

=== "CLI"

    ```bash
    yolo TASK MODE ARGS
    ```

=== "Python"

    ```python
    from ultralytics import YOLO

    # Load a YOLOv8 model from a pre-trained weights file
    model = YOLO('yolov8n.pt')

    # Run MODE mode using the custom arguments ARGS (guess TASK)
    model.MODE(ARGS)
    ```

Where:

  • TASK?(optional) is one of?[detect, segment, classify, pose]. If it is not passed explicitly YOLOv8 will try to guess the?TASK?from the model type.
  • MODE?(required) is one of?[train, val, predict, export, track, benchmark]
  • ARGS?(optional) are any number of custom?arg=value?pairs like?imgsz=320?that override defaults.

一、Tasks

YOLO 模型可用于各種任務(wù),包括檢測、分割、分類和姿勢。 這些任務(wù)的不同之處在于它們產(chǎn)生的輸出類型以及它們旨在解決的具體問題。

檢測:用于識別和定位圖像或視頻中感興趣的對象或區(qū)域。

分段:用于將圖像或視頻劃分為對應(yīng)于不同對象或類別的區(qū)域或像素。

分類:用于預(yù)測輸入圖像的類標(biāo)簽。

姿勢:用于識別圖像或視頻中的對象并估計其關(guān)鍵點。

Key Value Description
task 'detect' YOLO task, i.e. detect, segment, classify, pose

二、Modes

YOLO 模型可以根據(jù)您要解決的具體問題以不同的模式使用。

這些模式包括:

訓(xùn)練:用于在自定義數(shù)據(jù)集上訓(xùn)練 YOLOv8 模型。

Val:用于在訓(xùn)練后驗證 YOLOv8 模型。

預(yù)測:使用經(jīng)過訓(xùn)練的 YOLOv8 模型對新圖像或視頻進(jìn)行預(yù)測。

導(dǎo)出:用于將 YOLOv8 模型導(dǎo)出為可用于部署的格式。

Track:用于使用 YOLOv8 模型實時跟蹤對象。

基準(zhǔn):用于對 YOLOv8 導(dǎo)出(ONNX、TensorRT 等)速度和準(zhǔn)確性進(jìn)行基準(zhǔn)測試。

Key Value Description
mode 'train' YOLO mode, i.e. train, val, predict, export, track, benchmark

三、Train

YOLO 模型的訓(xùn)練設(shè)置包含訓(xùn)練過程中使用的各種超參數(shù)和配置。 這些設(shè)置會影響模型的性能、速度和準(zhǔn)確性。

關(guān)鍵的訓(xùn)練設(shè)置包括批量大小、學(xué)習(xí)率、動量和權(quán)重衰減。 此外,優(yōu)化器、損失函數(shù)和訓(xùn)練數(shù)據(jù)集組成的選擇也會影響訓(xùn)練過程。 仔細(xì)調(diào)整和試驗這些設(shè)置對于優(yōu)化性能至關(guān)重要。

Key Value Description
model None path to model file, i.e. yolov8n.pt, yolov8n.yaml
data None path to data file, i.e. coco128.yaml
epochs 100 number of epochs to train for
patience 50 epochs to wait for no observable improvement for early stopping of training
batch 16 number of images per batch (-1 for AutoBatch)
imgsz 640 size of input images as integer or w,h
save True save train checkpoints and predict results
save_period -1 Save checkpoint every x epochs (disabled if < 1)
cache False True/ram, disk or False. Use cache for data loading
device None device to run on, i.e. cuda device=0 or device=0,1,2,3 or device=cpu
workers 8 number of worker threads for data loading (per RANK if DDP)
project None project name
name None experiment name
exist_ok False whether to overwrite existing experiment
pretrained True (bool or str) whether to use a pretrained model (bool) or a model to load weights from (str)
optimizer 'auto' optimizer to use, choices=[SGD, Adam, Adamax, AdamW, NAdam, RAdam, RMSProp, auto]
verbose False whether to print verbose output
seed 0 random seed for reproducibility
deterministic True whether to enable deterministic mode
single_cls False train multi-class data as single-class
rect False rectangular training with each batch collated for minimum padding
cos_lr False use cosine learning rate scheduler
close_mosaic 10 (int) disable mosaic augmentation for final epochs (0 to disable)
resume False resume training from last checkpoint
amp True Automatic Mixed Precision (AMP) training, choices=[True, False]
fraction 1.0 dataset fraction to train on (default is 1.0, all images in train set)
profile False profile ONNX and TensorRT speeds during training for loggers
freeze None (int or list, optional) freeze first n layers, or freeze list of layer indices during training
lr0 0.01 initial learning rate (i.e. SGD=1E-2, Adam=1E-3)
lrf 0.01 final learning rate (lr0 * lrf)
momentum 0.937 SGD momentum/Adam beta1
weight_decay 0.0005 optimizer weight decay 5e-4
warmup_epochs 3.0 warmup epochs (fractions ok)
warmup_momentum 0.8 warmup initial momentum
warmup_bias_lr 0.1 warmup initial bias lr
box 7.5 box loss gain
cls 0.5 cls loss gain (scale with pixels)
dfl 1.5 dfl loss gain
pose 12.0 pose loss gain (pose-only)
kobj 2.0 keypoint obj loss gain (pose-only)
label_smoothing 0.0 label smoothing (fraction)
nbs 64 nominal batch size
overlap_mask True masks should overlap during training (segment train only)
mask_ratio 4 mask downsample ratio (segment train only)
dropout 0.0 use dropout regularization (classify train only)
val True validate/test during training

四、Predict

YOLO 模型的預(yù)測設(shè)置包含一系列超參數(shù)和配置,這些超參數(shù)和配置會影響模型在推理新數(shù)據(jù)期間的性能、速度和準(zhǔn)確性。 仔細(xì)調(diào)整和試驗這些設(shè)置對于實現(xiàn)特定任務(wù)的最佳性能至關(guān)重要。 關(guān)鍵設(shè)置包括置信度閾值、非極大值抑制 (NMS) 閾值和考慮的類別數(shù)量。 影響預(yù)測過程的其他因素包括輸入數(shù)據(jù)的大小和格式、是否存在補充特征(例如每個框的掩碼或多個標(biāo)簽)以及模型所執(zhí)行的特定任務(wù)。

Key Value Description
source 'ultralytics/assets' source directory for images or videos
conf 0.25 object confidence threshold for detection
iou 0.7 intersection over union (IoU) threshold for NMS
half False use half precision (FP16)
device None device to run on, i.e. cuda device=0/1/2/3 or device=cpu
show False show results if possible
save False save images with results
save_txt False save results as .txt file
save_conf False save results with confidence scores
save_crop False save cropped images with results
show_labels True show object labels in plots
show_conf True show object confidence scores in plots
max_det 300 maximum number of detections per image
vid_stride False video frame-rate stride
stream_buffer bool buffer all streaming frames (True) or return the most recent frame (False)
line_width None The line width of the bounding boxes. If None, it is scaled to the image size.
visualize False visualize model features
augment False apply image augmentation to prediction sources
agnostic_nms False class-agnostic NMS
retina_masks False use high-resolution segmentation masks
classes None filter results by class, i.e. classes=0, or classes=[0,2,3]
boxes True Show boxes in segmentation predictions

五、Val

YOLO 模型的 val(驗證)設(shè)置涉及各種超參數(shù)和配置,用于評估模型在驗證數(shù)據(jù)集上的性能。 這些設(shè)置會影響模型的性能、速度和準(zhǔn)確性。 常見的 YOLO 驗證設(shè)置包括批量大小、訓(xùn)練期間的驗證頻率以及性能評估指標(biāo)。 影響驗證過程的其他因素包括驗證數(shù)據(jù)集的大小和組成,以及模型所用于的特定任務(wù)。 對這些設(shè)置進(jìn)行仔細(xì)調(diào)整和實驗對于確保驗證數(shù)據(jù)集的最佳性能以及檢測和防止過度擬合至關(guān)重要。

Key Value Description
save_json False save results to JSON file
save_hybrid False save hybrid version of labels (labels + additional predictions)
conf 0.001 object confidence threshold for detection
iou 0.6 intersection over union (IoU) threshold for NMS
max_det 300 maximum number of detections per image
half True use half precision (FP16)
device None device to run on, i.e. cuda device=0/1/2/3 or device=cpu
dnn False use OpenCV DNN for ONNX inference
plots False show plots during training
rect False rectangular val with each batch collated for minimum padding
split val dataset split to use for validation, i.e. 'val', 'test' or 'train'

六、Export

YOLO 模型的導(dǎo)出設(shè)置包含與保存或?qū)С瞿P鸵栽诓煌h(huán)境或平臺中使用相關(guān)的配置和選項。 這些設(shè)置可能會影響模型的性能、大小以及與各種系統(tǒng)的兼容性。 關(guān)鍵導(dǎo)出設(shè)置包括導(dǎo)出的模型文件格式(例如 ONNX、TensorFlow SavedModel)、目標(biāo)設(shè)備(例如 CPU、GPU)以及其他功能,例如掩?;蛎總€框多個標(biāo)簽。 導(dǎo)出過程還可能受到模型的特定任務(wù)以及目標(biāo)環(huán)境或平臺的要求或約束的影響。 仔細(xì)配置這些設(shè)置以確保導(dǎo)出的模型針對預(yù)期用例進(jìn)行優(yōu)化并在目標(biāo)環(huán)境中有效運行至關(guān)重要。

Key Value Description
format 'torchscript' format to export to
imgsz 640 image size as scalar or (h, w) list, i.e. (640, 480)
keras False use Keras for TF SavedModel export
optimize False TorchScript: optimize for mobile
half False FP16 quantization
int8 False INT8 quantization
dynamic False ONNX/TF/TensorRT: dynamic axes
simplify False ONNX: simplify model
opset None ONNX: opset version (optional, defaults to latest)
workspace 4 TensorRT: workspace size (GB)
nms False CoreML: add NMS

七、Augmentation

YOLO 模型的增強設(shè)置是指應(yīng)用于訓(xùn)練數(shù)據(jù)的各種轉(zhuǎn)換和修改,以增加數(shù)據(jù)集的多樣性和大小。 這些設(shè)置會影響模型的性能、速度和準(zhǔn)確性。 一些常見的 YOLO 增強設(shè)置包括所應(yīng)用的變換的類型和強度(例如隨機翻轉(zhuǎn)、旋轉(zhuǎn)、裁剪、顏色變化)、應(yīng)用每個變換的概率以及是否存在附加功能,例如每個框的掩?;蚨鄠€標(biāo)簽 。 可能影響增強過程的其他因素包括原始數(shù)據(jù)集的大小和組成以及模型所用于的特定任務(wù)。 仔細(xì)調(diào)整和試驗這些設(shè)置非常重要,以確保增強數(shù)據(jù)集具有足夠的多樣性和代表性,足以訓(xùn)練高性能模型。

Key Value Description
hsv_h 0.015 image HSV-Hue augmentation (fraction)
hsv_s 0.7 image HSV-Saturation augmentation (fraction)
hsv_v 0.4 image HSV-Value augmentation (fraction)
degrees 0.0 image rotation (+/- deg)
translate 0.1 image translation (+/- fraction)
scale 0.5 image scale (+/- gain)
shear 0.0 image shear (+/- deg)
perspective 0.0 image perspective (+/- fraction), range 0-0.001
flipud 0.0 image flip up-down (probability)
fliplr 0.5 image flip left-right (probability)
mosaic 1.0 image mosaic (probability)
mixup 0.0 image mixup (probability)
copy_paste 0.0 segment copy-paste (probability)

八、Logging, checkpoints, plotting and file management

訓(xùn)練 YOLO 模型時,日志記錄、檢查點、繪圖和文件管理是重要的考慮因素。

日志記錄:在訓(xùn)練期間記錄各種指標(biāo)和統(tǒng)計數(shù)據(jù)通常很有幫助,以跟蹤模型的進(jìn)度并診斷可能出現(xiàn)的任何問題。 這可以使用 TensorBoard 等日志庫或通過將日志消息寫入文件來完成。

檢查點:在訓(xùn)練期間定期保存模型的檢查點是一個很好的做法。 如果訓(xùn)練過程中斷或者您想嘗試不同的訓(xùn)練配置,您可以從之前的點恢復(fù)訓(xùn)練。

繪圖:可視化模型的性能和訓(xùn)練進(jìn)度有助于理解模型的行為方式并識別潛在問題。 這可以使用 matplotlib 等繪圖庫或使用 TensorBoard 等日志記錄庫生成繪圖來完成。

文件管理:管理訓(xùn)練過程中生成的各種文件(例如模型檢查點、日志文件和繪圖)可能具有挑戰(zhàn)性。 擁有清晰且有組織的文件結(jié)構(gòu)來跟蹤這些文件并使其易于根據(jù)需要訪問和分析它們非常重要。

有效的日志記錄、檢查點、繪圖和文件管理可以幫助您跟蹤模型的進(jìn)度,并更輕松地調(diào)試和優(yōu)化訓(xùn)練過程。文章來源地址http://www.zghlxwxcb.cn/news/detail-752605.html

Key Value Description
project 'runs' project name
name 'exp' experiment name.?exp?gets automatically incremented if not specified, i.e,?exp,?exp2?...
exist_ok False whether to overwrite existing experiment
plots False save plots during train/val
save False save train checkpoints and predict results

到了這里,關(guān)于【計算機視覺】YOLOv8參數(shù)詳解(全面詳細(xì)、重點突出、大白話闡述小白也能看懂)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • YOLOv8輕量化:MobileNetV3,理想的輕量級骨架選擇 - 計算機視覺

    YOLOv8是一種廣泛應(yīng)用于目標(biāo)檢測任務(wù)的深度學(xué)習(xí)模型。為了在計算資源受限的環(huán)境下實現(xiàn)高效的目標(biāo)檢測,使用輕量級骨架是至關(guān)重要的。在這方面,MobileNetV3是一個出色的選擇,它具有較少的參數(shù)和計算復(fù)雜度,同時保持了較高的準(zhǔn)確性和速度。 MobileNetV3是Google提出的一種

    2024年03月16日
    瀏覽(35)
  • YOLOv8改進(jìn):在C2f模塊中引入EMA注意力機制,提升計算機視覺性能

    計算機視覺領(lǐng)域一直在不斷演進(jìn),為了改進(jìn)目標(biāo)檢測算法的性能,研究人員一直在尋找新的方法和技術(shù)。在這篇文章中,我們介紹了一種改進(jìn)的目標(biāo)檢測算法,即YOLOv8,通過在C2f模塊中引入EMA(Exponential Moving Average)注意力機制,有效提升了算法的性能。 目標(biāo)檢測是計算機視

    2024年02月03日
    瀏覽(284)
  • 改進(jìn)YOLOv8 | 即插即用篇 | C2F模塊增加注意力機制 | 附詳細(xì)結(jié)構(gòu)圖 計算機視覺

    摘要: 本文針對目標(biāo)檢測算法YOLOv8進(jìn)行改進(jìn),通過在C2F模塊中引入注意力機制,提高目標(biāo)的定位和分類性能。文章首先介紹了YOLOv8的基本原理和結(jié)構(gòu),然后詳細(xì)闡述了注意力機制的原理和作用,并對修改后的C2F模塊結(jié)構(gòu)進(jìn)行了說明。最后,給出了實驗結(jié)果和源代碼。 引言 目

    2024年02月04日
    瀏覽(677)
  • 改進(jìn)YOLOv8 | C2F模塊中引入注意力機制的即插即用方法 | 詳細(xì)結(jié)構(gòu)圖與計算機視覺實現(xiàn)

    概述: 在計算機視覺領(lǐng)域,YOLOv8是一種常用的目標(biāo)檢測算法,而C2F模塊是YOLOv8的核心組成部分之一。為了進(jìn)一步提升YOLOv8的檢測性能,本文將介紹如何通過添加注意力機制來改進(jìn)C2F模塊。我們將詳細(xì)討論這一改進(jìn)方法,并提供相應(yīng)的源代碼,以便讀者可以直接使用。 引言:

    2024年04月15日
    瀏覽(756)
  • 計算機視覺的應(yīng)用14-目標(biāo)檢測經(jīng)典算法之YOLOv1-YOLOv5的模型架構(gòu)與改進(jìn)過程詳解,便于記憶

    計算機視覺的應(yīng)用14-目標(biāo)檢測經(jīng)典算法之YOLOv1-YOLOv5的模型架構(gòu)與改進(jìn)過程詳解,便于記憶

    大家好,我是微學(xué)AI,今天給大家介紹一下計算機視覺的應(yīng)用14-目標(biāo)檢測經(jīng)典算法之YOLOv1-YOLOv5的模型架構(gòu)與改進(jìn)過程詳解,便于記憶。YOLO(You Only Look Once)是一種目標(biāo)檢測深度學(xué)習(xí)模型。想象一下,傳統(tǒng)的目標(biāo)檢測方法就像偵探一樣,需要仔細(xì)觀察整個場景,逐個研究每個細(xì)

    2024年02月07日
    瀏覽(27)
  • YOLOv8預(yù)測參數(shù)詳解(全面詳細(xì)、重點突出、大白話闡述小白也能看懂)

    YOLOv8預(yù)測參數(shù)詳解(全面詳細(xì)、重點突出、大白話闡述小白也能看懂)

    YOLOv8現(xiàn)在可以接受輸入很多,如下表所示。包括圖像、URL、PIL圖像、OpenCV、NumPy數(shù)組、Torch張量、CSV文件、視頻、目錄、通配符、YouTube視頻和視頻流。表格?指示了每個輸入源是否可以在流模式下使用,并給出了每個輸入源使用流模式的示例參數(shù) 預(yù)測參數(shù) Key Value Description s

    2024年02月11日
    瀏覽(31)
  • 【計算機視覺】YOLOv9:物體檢測技術(shù)的飛躍發(fā)展

    【計算機視覺】YOLOv9:物體檢測技術(shù)的飛躍發(fā)展

    YOLOv9 引入了可編程梯度信息 (PGI) 和廣義高效層聚合網(wǎng)絡(luò) (GELAN) 等開創(chuàng)性技術(shù),標(biāo)志著實時目標(biāo)檢測領(lǐng)域的重大進(jìn)步。該模型在效率、準(zhǔn)確性和適應(yīng)性方面都有顯著提高,在 MS COCO 數(shù)據(jù)集上樹立了新的標(biāo)桿。YOLOv9 項目雖然是由一個獨立的開源團(tuán)隊開發(fā)的,但它建立在以下機構(gòu)

    2024年04月17日
    瀏覽(33)
  • 計算機視覺:卷積核的參數(shù)是如何得到的?

    計算機視覺:卷積核的參數(shù)是如何得到的?

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種深度學(xué)習(xí)模型,其主要特點是使用卷積層來提取特征。卷積層的核心是卷積核,也稱為濾波器(filter)。卷積核是一個小的矩陣,通過卷積操作將輸入數(shù)據(jù)中的特征提取出來。卷積核的參數(shù)是如何學(xué)習(xí)得到的呢? 我們前面學(xué)

    2024年02月16日
    瀏覽(28)
  • 計算機視覺:卷積層的參數(shù)量是多少?

    計算機視覺:卷積層的參數(shù)量是多少?

    卷積核的參數(shù)量是卷積神經(jīng)網(wǎng)絡(luò)中一個重要的概念,它決定了網(wǎng)絡(luò)的復(fù)雜度和計算量。在深度學(xué)習(xí)中,卷積操作是一種常用的操作,用于提取圖像、語音等數(shù)據(jù)中的特征。卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)勢點在于稀疏連接和權(quán)值共享,這使得卷積核的參數(shù)相較于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)要少很多。

    2024年02月14日
    瀏覽(21)
  • 計算機視覺——yolov5回歸與跨網(wǎng)格預(yù)測、訓(xùn)練技巧(下篇)

    計算機視覺——yolov5回歸與跨網(wǎng)格預(yù)測、訓(xùn)練技巧(下篇)

    在線版本:瀏覽器中輸入鏈接: https://lutzroeder.github.io/netron/ netron官方的Github鏈接:https://github.com/lutzroeder/netron 一個小實驗: Focus()模塊是為減少錯誤和提高速度而設(shè)計的,而不是提高精度。 在CSP上添加SPP塊,因為它顯著地增加了接收字段,分離出了最重要的內(nèi)容,幾乎沒有降低

    2023年04月22日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包