国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

YOLOv8預(yù)測(cè)參數(shù)詳解(全面詳細(xì)、重點(diǎn)突出、大白話(huà)闡述小白也能看懂)

這篇具有很好參考價(jià)值的文章主要介紹了YOLOv8預(yù)測(cè)參數(shù)詳解(全面詳細(xì)、重點(diǎn)突出、大白話(huà)闡述小白也能看懂)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。


YOLOv8預(yù)測(cè)參數(shù)詳解(全面詳細(xì)、重點(diǎn)突出、大白話(huà)闡述小白也能看懂)

YOLOv8現(xiàn)在可以接受輸入很多,如下表所示。包括圖像、URL、PIL圖像、OpenCV、NumPy數(shù)組、Torch張量、CSV文件、視頻、目錄、通配符、YouTube視頻和視頻流。表格?指示了每個(gè)輸入源是否可以在流模式下使用,并給出了每個(gè)輸入源使用流模式的示例參數(shù)
YOLOv8預(yù)測(cè)參數(shù)詳解(全面詳細(xì)、重點(diǎn)突出、大白話(huà)闡述小白也能看懂)

預(yù)測(cè)參數(shù)

Key Value Description
source 'ultralytics/assets' source directory for images or videos
conf 0.25 object confidence threshold for detection
iou 0.7 intersection over union (IoU) threshold for NMS
half False use half precision (FP16)
device None device to run on, i.e. cuda device=0/1/2/3 or device=cpu
show False show results if possible
save False save images with results
save_txt False save results as .txt file
save_conf False save results with confidence scores
save_crop False save cropped images with results
hide_labels False hide labels
hide_conf False hide confidence scores
max_det 300 maximum number of detections per image
vid_stride False video frame-rate stride
line_width None The line width of the bounding boxes. If None, it is scaled to the image size.
visualize False visualize model features
augment False apply image augmentation to prediction sources
agnostic_nms False class-agnostic NMS
retina_masks False use high-resolution segmentation masks
classes None filter results by class, i.e. class=0, or class=[0,2,3]
boxes True Show boxes in segmentation predictions

下面是每個(gè)參數(shù)的解釋?zhuān)?/p>

  • source:輸入源的目錄,可以是圖像或視頻文件。
  • conf:目標(biāo)檢測(cè)的對(duì)象置信度閾值。只有置信度高于此閾值的對(duì)象才會(huì)被檢測(cè)出來(lái)。默認(rèn)值為0.25
  • iou:非極大值抑制(NMS)的交并比(IoU)閾值。用于在重疊較大的候選框中選擇最佳的檢測(cè)結(jié)果。默認(rèn)值為0.7。
  • half:是否使用半精度(FP16)進(jìn)行推理。半精度可以減少計(jì)算量,但可能會(huì)犧牲一些精度。默認(rèn)值為False
  • device:模型運(yùn)行的設(shè)備,可以是cuda設(shè)備(cuda device=0/1/2/3)或CPU(device=cpu)。
  • show:是否顯示檢測(cè)結(jié)果。如果設(shè)置為True,則會(huì)在屏幕上顯示檢測(cè)到的對(duì)象。默認(rèn)值為False。
  • save:是否保存帶有檢測(cè)結(jié)果的圖像。如果設(shè)置為True,則會(huì)將檢測(cè)結(jié)果保存為圖像文件。默認(rèn)值為False。
  • save_txt:是否將檢測(cè)結(jié)果保存為文本文件(.txt)。默認(rèn)值為False。
  • save_conf:是否將檢測(cè)結(jié)果與置信度分?jǐn)?shù)一起保存。默認(rèn)值為False。
  • save_crop:是否保存裁剪后的帶有檢測(cè)結(jié)果的圖像。默認(rèn)值為False。
  • hide_labels:是否隱藏標(biāo)簽。如果設(shè)置為True,則在顯示檢測(cè)結(jié)果時(shí)不顯示對(duì)象標(biāo)簽。默認(rèn)值為False
  • hide_conf:是否隱藏置信度分?jǐn)?shù)。如果設(shè)置為True,則在顯示檢測(cè)結(jié)果時(shí)不顯示置信度分?jǐn)?shù)。默認(rèn)值為False。
  • max_det:每張圖像的最大檢測(cè)數(shù)。如果檢測(cè)到的對(duì)象數(shù)超過(guò)此值,將保留置信度高低來(lái)保留。默認(rèn)值為300。
  • vid_stride:視頻幀率步長(zhǎng)。默認(rèn)值為False,表示使用默認(rèn)的幀率。
  • line_width:邊界框的線(xiàn)寬。如果設(shè)置為None,則根據(jù)圖像大小進(jìn)行自動(dòng)縮放。默認(rèn)值為None
  • visualize:是否可視化模型特征。默認(rèn)值為False。
  • augment:是否對(duì)預(yù)測(cè)源應(yīng)用圖像增強(qiáng)。默認(rèn)值為False。
  • agnostic_nms:是否使用類(lèi)別無(wú)關(guān)的NMS。默認(rèn)值為False。
  • retina_masks:是否使用高分辨率的分割掩膜。默認(rèn)值為False。
  • classes:按類(lèi)別過(guò)濾結(jié)果??梢灾付▎蝹€(gè)類(lèi)別(例如class=0)或多個(gè)類(lèi)別(例如class=[0,2,3])。默認(rèn)值為None,表示不進(jìn)行類(lèi)別過(guò)濾。
  • boxes:在分割預(yù)測(cè)中顯示邊界框。默認(rèn)值為True。

使用Results對(duì)象

Results對(duì)象包含以下組件:

Results.boxes:用于操作邊界框的屬性和方法的對(duì)象

Results.masks:用于索引掩膜或獲取分段坐標(biāo)的對(duì)象

Results.probs:包含類(lèi)別概率或邏輯值的張量(tensor)

Results.orig_img:加載在內(nèi)存中的原始圖像

Results.path:包含輸入圖像的路徑

result對(duì)象默認(rèn)是torch.Tensor對(duì)象,也可以轉(zhuǎn)為其他對(duì)象

results = results.cuda()
results = results.cpu()
results = results.to('cpu')
results = results.numpy()
Boxes

Boxes對(duì)象可用于索引、操作邊界框,并將其轉(zhuǎn)換為不同的格式。Box格式轉(zhuǎn)換結(jié)果是緩存的,這意味著每個(gè)對(duì)象只計(jì)算一次,并且這些值將在將來(lái)的調(diào)用中重復(fù)使用。

results = model(img)
boxes = results[0].boxes
box = boxes[0]  # returns one box
box.xyxy

Boxes 的屬性有

boxes.xyxy  #  xyxy 形式的目標(biāo)框, (N, 4)
boxes.xywh  # xywh 形式的目標(biāo)框, (N, 4)
boxes.xyxyn  # xyxy 形式的目標(biāo)框且歸一化, (N, 4)
boxes.xywhn  #  xywh 形式的目標(biāo)框且歸一化, (N, 4)
boxes.conf  # 置信度的分?jǐn)?shù), (N, 1)
boxes.cls  # 類(lèi)別, (N, 1)
boxes.data  # 原始目標(biāo)框參數(shù)坐標(biāo) (x, y, w, h)、置信度以及類(lèi)別, (N, 6) or boxes.boxes
Masks

Masks可以被索引、操作修改、將Masks轉(zhuǎn)換為分割結(jié)果。也可以緩存段轉(zhuǎn)換操作。

results = model(inputs)
masks = results[0].masks  # Masks object
masks.xy  # x, y segments (pixels), List[segment] * N
masks.xyn  # x, y segments (normalized), List[segment] * N
masks.data  # raw masks tensor, (N, H, W) or masks.masks 
Probs 置信度

包含了所有類(lèi)別的置信度

results = model(inputs)
results[0].probs  # cls prob, (num_class, )

更多文檔可以參考 https://docs.ultralytics.com/reference/yolo/engine/results/

繪制結(jié)果

yolov8提供了plot函數(shù)繪制結(jié)果,可以繪制邊框,分割結(jié)果,分類(lèi)結(jié)果類(lèi)別等等。不在需要像yolov5那樣直接寫(xiě)后處理nms等,很方便。

res = model(img)
res_plotted = res[0].plot()
cv2.imshow("result", res_plotted)
Argument Description
conf (bool) 是否繪制檢測(cè)置信度得分。
line_width (int, optional) 邊界框的線(xiàn)寬。如果為None,則根據(jù)圖像大小進(jìn)行縮放。
font_size (float, optional) 文本的字體大小。如果為None,則根據(jù)圖像大小進(jìn)行縮放。
font (str) 用于文本的字體。
pil (bool) 是否使用PIL庫(kù)進(jìn)行圖像繪制。
example (str) 要顯示的示例字符串。用于指示輸出的期望格式。
img (numpy.ndarray) 繪制到另一個(gè)圖像上。如果為None,則繪制到原始圖像上。
labels (bool) 是否繪制邊界框的標(biāo)簽。
boxes (bool) 是否繪制邊界框。
masks (bool) 是否繪制掩膜。
probs (bool) 是否繪制分類(lèi)概率。
視頻流數(shù)據(jù)源

以下是使用OpenCV和YOLOv8在視頻幀上運(yùn)行推理的代碼。

import cv2
from ultralytics import YOLO

# Load the YOLOv8 model
model = YOLO('yolov8n.pt')

# Open the video file
video_path = "path/to/your/video/file.mp4"
cap = cv2.VideoCapture(video_path)

# Loop through the video frames
while cap.isOpened():
    # Read a frame from the video
    success, frame = cap.read()

    if success:
        # Run YOLOv8 inference on the frame
        results = model(frame)

        # Visualize the results on the frame
        annotated_frame = results[0].plot()

        # Display the annotated frame
        cv2.imshow("YOLOv8 Inference", annotated_frame)

        # Break the loop if 'q' is pressed
        if cv2.waitKey(1) & 0xFF == ord("q"):
            break
    else:
        # Break the loop if the end of the video is reached
        break

# Release the video capture object and close the display window
cap.release()
cv2.destroyAllWindows()

YOLOv8預(yù)測(cè)參數(shù)詳解(全面詳細(xì)、重點(diǎn)突出、大白話(huà)闡述小白也能看懂)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-509159.html

到了這里,關(guān)于YOLOv8預(yù)測(cè)參數(shù)詳解(全面詳細(xì)、重點(diǎn)突出、大白話(huà)闡述小白也能看懂)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【目標(biāo)檢測(cè)】YOLOV8實(shí)戰(zhàn)入門(mén)(五)模型預(yù)測(cè)

    【目標(biāo)檢測(cè)】YOLOV8實(shí)戰(zhàn)入門(mén)(五)模型預(yù)測(cè)

    predict 模式用于在新圖像或視頻上使用經(jīng)過(guò)訓(xùn)練的 YOLOv8 模型進(jìn)行預(yù)測(cè),在此模式下,模型從 checkpoint 文件加載,用戶(hù)可以提供圖像或視頻來(lái)執(zhí)行推理。模型預(yù)測(cè)輸入圖像或視頻中對(duì)象的類(lèi)別和位置。 YOLOv8 預(yù)測(cè)模式可以為各種任務(wù)生成預(yù)測(cè),在使用流模式時(shí)返回結(jié)果對(duì)象列表

    2024年02月06日
    瀏覽(31)
  • pyton\yolov8安裝和基礎(chǔ)使用,訓(xùn)練和預(yù)測(cè)

    pyton\yolov8安裝和基礎(chǔ)使用,訓(xùn)練和預(yù)測(cè)

    ? ? 首先到官網(wǎng)下載yolov8,官方的地址,下載好壓縮包后,解壓到pycharm打開(kāi),我個(gè)人使用的是pycharm,接下來(lái)也是在pycharm里操作的。(專(zhuān)業(yè)版pycharm) ? ?yolov8的官方文檔有說(shuō)明,必須要有的環(huán)境python-3.7.0 pyTorch=1.7,這兩個(gè)環(huán)境很好配置, python現(xiàn)在基本都是大于3.7版本的,p

    2024年02月05日
    瀏覽(32)
  • 用python調(diào)用YOLOV8預(yù)測(cè)視頻并解析結(jié)果----錯(cuò)誤解決

    用python調(diào)用YOLOV8預(yù)測(cè)視頻并解析結(jié)果----錯(cuò)誤解決

    1?同濟(jì)子豪兄關(guān)鍵點(diǎn)檢測(cè)教程視頻 2?同濟(jì)子豪兄的GitHub代碼參考 3?提出問(wèn)題的小伙伴的博客 本節(jié)調(diào)用了YOLOV8的預(yù)訓(xùn)練模型來(lái)對(duì)視頻進(jìn)行預(yù)測(cè),采用的是python的API,并將關(guān)鍵點(diǎn)檢測(cè)的結(jié)果可視化。在未更改代碼之前,跑出來(lái)的效果如圖所示。如果檢測(cè)到的點(diǎn)數(shù)少于16,會(huì)被自

    2024年01月19日
    瀏覽(26)
  • 【YOLO】YOLOv8實(shí)操:環(huán)境配置/自定義數(shù)據(jù)集準(zhǔn)備/模型訓(xùn)練/預(yù)測(cè)

    【YOLO】YOLOv8實(shí)操:環(huán)境配置/自定義數(shù)據(jù)集準(zhǔn)備/模型訓(xùn)練/預(yù)測(cè)

    源碼鏈接:https://github.com/ultralytics/ultralytics yolov8和yolov5是同一作者,相比yolov5,yolov8的集成性更好了,更加面向用戶(hù)了 YOLO命令行界面(command line interface, CLI) 方便在各種任務(wù)和版本上訓(xùn)練、驗(yàn)證或推斷模型。CLI不需要定制或代碼,可以使用yolo命令從終端運(yùn)行所有任務(wù)。 如果

    2023年04月24日
    瀏覽(22)
  • 改進(jìn)YOLOv8 | 即插即用篇 | YOLOv8 引入 RepVGG 重參數(shù)化模塊 |《RepVGG:讓VGG風(fēng)格的卷積神經(jīng)網(wǎng)絡(luò)再次偉大》

    改進(jìn)YOLOv8 | 即插即用篇 | YOLOv8 引入 RepVGG 重參數(shù)化模塊 |《RepVGG:讓VGG風(fēng)格的卷積神經(jīng)網(wǎng)絡(luò)再次偉大》

    我們提出了一種簡(jiǎn)單但功能強(qiáng)大的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),該模型在推理時(shí)類(lèi)似于VGG,只有3×3的卷積和ReLU堆疊而成,而訓(xùn)練時(shí)間模型具有多分支拓?fù)浣Y(jié)構(gòu)。訓(xùn)練時(shí)間和推理時(shí)間結(jié)構(gòu)的這種解耦是通過(guò)結(jié)構(gòu)重新參數(shù)化技術(shù)實(shí)現(xiàn)的,因此該模型被命名為RepVGG。在ImageNet上,RepVGG達(dá)到了

    2023年04月27日
    瀏覽(155)
  • windows下配置pytorch + yolov8+vscode,并自定義數(shù)據(jù)進(jìn)行訓(xùn)練、攝像頭實(shí)時(shí)預(yù)測(cè)

    windows下配置pytorch + yolov8+vscode,并自定義數(shù)據(jù)進(jìn)行訓(xùn)練、攝像頭實(shí)時(shí)預(yù)測(cè)

    最近由于工程需要,研究學(xué)習(xí)了一下windows下如何配置pytorch和yolov8,并自己搜集數(shù)據(jù)進(jìn)行訓(xùn)練和預(yù)測(cè),預(yù)測(cè)使用usb攝像頭進(jìn)行實(shí)時(shí)預(yù)測(cè)。在此記錄一下全過(guò)程 1. vscode安裝 windows平臺(tái)開(kāi)發(fā)python,我采用vscode作為基礎(chǔ)開(kāi)發(fā)平臺(tái),點(diǎn)擊 https://code.visualstudio.com/進(jìn)入vscode官網(wǎng),下載對(duì)應(yīng)

    2024年02月16日
    瀏覽(54)
  • YOLOv8超參數(shù)調(diào)優(yōu)教程! 使用Ray Tune進(jìn)行高效的超參數(shù)調(diào)優(yōu)!

    YOLOv8超參數(shù)調(diào)優(yōu)教程! 使用Ray Tune進(jìn)行高效的超參數(shù)調(diào)優(yōu)!

    原創(chuàng)文章為博主個(gè)人所有,未經(jīng)授權(quán)不得轉(zhuǎn)載、摘編、倒賣(mài)、洗稿或利用其它方式使用上述作品。違反上述聲明者,本站將追求其相關(guān)法律責(zé)任。 這篇博文帶大家玩點(diǎn)新的東西,也是一直以來(lái)困擾大家最大的問(wèn)題— 超參數(shù)調(diào)優(yōu) ! 之前的 YOLOv5 我使用遺傳算法做過(guò)很多次調(diào)優(yōu)

    2024年02月09日
    瀏覽(140)
  • yolov8訓(xùn)練進(jìn)階:自定義訓(xùn)練腳本,從配置文件載入訓(xùn)練超參數(shù)

    yolov8訓(xùn)練進(jìn)階:自定義訓(xùn)練腳本,從配置文件載入訓(xùn)練超參數(shù)

    yolov8官方教程提供了2種訓(xùn)練方式,一種是通過(guò)命令行啟動(dòng)訓(xùn)練,一種是通過(guò)寫(xiě)代碼啟動(dòng)。 命令行的方式啟動(dòng)方便,通過(guò)傳入?yún)?shù)可以方便的調(diào)整訓(xùn)練參數(shù),但這種方式不方便記錄訓(xùn)練參數(shù)和調(diào)試訓(xùn)練代碼。 自行寫(xiě)訓(xùn)練代碼的方式更靈活,也比較方便調(diào)試,但官方的示例各種

    2024年02月12日
    瀏覽(19)
  • YOLOv8架構(gòu)詳解

    YOLOv8架構(gòu)詳解

    在視覺(jué)深度學(xué)習(xí)中,通常將模型分為 2~3 個(gè)組成部分: backbone、neck(可選) 和 head。 Backbone (主干網(wǎng)絡(luò))負(fù)責(zé)從輸入圖像中 提取特征 ,將圖像轉(zhuǎn)化為具有豐富語(yǔ)義信息的特征表示。 Neck (頸部,連接部)是一個(gè)中間層,用于對(duì)來(lái)自 backbone 的 特征進(jìn)行融合 ,以提升模型的性

    2024年04月28日
    瀏覽(25)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包