国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【目標(biāo)檢測】YOLOV8實(shí)戰(zhàn)入門(五)模型預(yù)測

這篇具有很好參考價值的文章主要介紹了【目標(biāo)檢測】YOLOV8實(shí)戰(zhàn)入門(五)模型預(yù)測。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。


predict模式用于在新圖像或視頻上使用經(jīng)過訓(xùn)練的YOLOv8模型進(jìn)行預(yù)測,在此模式下,模型從checkpoint 文件加載,用戶可以提供圖像或視頻來執(zhí)行推理。模型預(yù)測輸入圖像或視頻中對象的類別和位置。

from ultralytics import YOLO
from PIL import Image
import cv2

model = YOLO("model.pt")
# 接受所有格式-image/dir/Path/URL/video/PIL/ndarray。0用于網(wǎng)絡(luò)攝像頭
results = model.predict(source="0")
results = model.predict(source="folder", show=True) # 展示預(yù)測結(jié)果

# from PIL
im1 = Image.open("bus.jpg")
results = model.predict(source=im1, save=True)  # 保存繪制的圖像

# from ndarray
im2 = cv2.imread("bus.jpg")
results = model.predict(source=im2, save=True, save_txt=True)  # 將預(yù)測保存為標(biāo)簽

# from list of PIL/ndarray
results = model.predict(source=[im1, im2])

YOLOv8預(yù)測模式可以為各種任務(wù)生成預(yù)測,在使用流模式時返回結(jié)果對象列表或結(jié)果對象的內(nèi)存高效生成器。通過在預(yù)測器的調(diào)用方法中傳遞stream=True來啟用流模式。stream=True的流媒體模式應(yīng)用于長視頻或大型預(yù)測源,否則結(jié)果將在內(nèi)存中累積并最終導(dǎo)致內(nèi)存不足錯誤。

inputs = [img, img]  # list of numpy arrays
results = model(inputs, stream=True)  # generator of Results objects

for result in results:
    boxes = result.boxes  # Boxes object for bbox outputs
    masks = result.masks  # Masks object for segmentation masks outputs
    probs = result.probs  # Class probabilities for classification outputs

相關(guān)參數(shù)如下

Key Value Description
source 'ultralytics/assets' source directory for images or videos
conf 0.25 object confidence threshold for detection
iou 0.7 intersection over union (IoU) threshold for NMS
half False use half precision (FP16)
device None device to run on, i.e. cuda device=0/1/2/3 or device=cpu
show False show results if possible
save False save images with results
save_txt False save results as .txt file
save_conf False save results with confidence scores
save_crop False save cropped images with results
hide_labels False hide labels
hide_conf False hide confidence scores
max_det 300 maximum number of detections per image
vid_stride False video frame-rate stride
line_thickness 3 bounding box thickness (pixels)
visualize False visualize model features
augment False apply image augmentation to prediction sources
agnostic_nms False class-agnostic NMS
retina_masks False use high-resolution segmentation masks
classes None filter results by class, i.e. class=0, or class=[0,2,3]
boxes True Show boxes in segmentation predictions

YOLOv8可以接受各種輸入源,如下表所示。這包括圖像、URL、PIL圖像、OpenCV、numpy數(shù)組、torch張量、CSV文件、視頻、目錄、全局、YouTube視頻和流。該表指示每個源是否可以在流模式下使用stream=True?以及每個源的示例參數(shù)。

source model(arg) type notes
image 'im.jpg' str, Path
URL 'https://ultralytics.com/images/bus.jpg' str
screenshot 'screen' str
PIL Image.open('im.jpg') PIL.Image HWC, RGB
OpenCV cv2.imread('im.jpg')[:,:,::-1] np.ndarray HWC, BGR to RGB
numpy np.zeros((640,1280,3)) np.ndarray HWC
torch torch.zeros(16,3,320,640) torch.Tensor BCHW, RGB
CSV 'sources.csv' str, Path RTSP, RTMP, HTTP
video ? 'vid.mp4' str, Path
directory ? 'path/' str, Path
glob ? 'path/*.jpg' str Use * operator
YouTube ? 'https://youtu.be/Zgi9g1ksQHc' str
stream ? 'rtsp://example.com/media.mp4' str RTSP, RTMP, HTTP

圖像類型

Image Suffixes Example Predict Command Reference
.bmp yolo predict source=image.bmp Microsoft BMP File Format
.dng yolo predict source=image.dng Adobe DNG
.jpeg yolo predict source=image.jpeg JPEG
.jpg yolo predict source=image.jpg JPEG
.mpo yolo predict source=image.mpo Multi Picture Object
.png yolo predict source=image.png Portable Network Graphics
.tif yolo predict source=image.tif Tag Image File Format
.tiff yolo predict source=image.tiff Tag Image File Format
.webp yolo predict source=image.webp WebP
.pfm yolo predict source=image.pfm Portable FloatMap

視頻類型

Video Suffixes Example Predict Command Reference
.asf yolo predict source=video.asf Advanced Systems Format
.avi yolo predict source=video.avi Audio Video Interleave
.gif yolo predict source=video.gif Graphics Interchange Format
.m4v yolo predict source=video.m4v MPEG-4 Part 14
.mkv yolo predict source=video.mkv Matroska
.mov yolo predict source=video.mov QuickTime File Format
.mp4 yolo predict source=video.mp4 MPEG-4 Part 14 - Wikipedia
.mpeg yolo predict source=video.mpeg MPEG-1 Part 2
.mpg yolo predict source=video.mpg MPEG-1 Part 2
.ts yolo predict source=video.ts MPEG Transport Stream
.wmv yolo predict source=video.wmv Windows Media Video
.webm yolo predict source=video.webm WebM Project

預(yù)測結(jié)果對象包含以下組件:

Results.boxes: — 具有用于操作邊界框的屬性和方法的boxes

Results.masks: — 用于索引掩碼或獲取段坐標(biāo)的掩碼對象

Results.probs: — 包含類概率或logits

Results.orig_img: — 載入內(nèi)存的原始圖像

Results.path: — 包含輸入圖像路徑的路徑

默認(rèn)情況下,每個結(jié)果都由一個torch. Tensor組成,它允許輕松操作:

results = results.cuda()
results = results.cpu()
results = results.to('cpu')
results = results.numpy()

from ultralytics import YOLO
import cv2
from ultralytics.yolo.utils.benchmarks import benchmark

model = YOLO("yolov8-seg.yaml").load('yolov8n-seg.pt')
results = model.predict(r'E:\CS\DL\yolo\yolov8study\bus.jpg')
boxes = results[0].boxes
masks = results[0].masks
probs = results[0].probs 
print(f"boxes:{boxes[0]}")
print(f"masks:{masks.xy }")
print(f"probs:{probs}")

output:

image 1/1 E:\CS\DL\yolo\yolov8study\bus.jpg: 640x480 4 0s, 1 5, 1 36, 25.9ms
Speed: 4.0ms preprocess, 25.9ms inference, 10.0ms postprocess per image at shape (1, 3, 640, 640)
WARNING  'Boxes.boxes' is deprecated. Use 'Boxes.data' instead.
boxes:ultralytics.yolo.engine.results.Boxes object with attributes:

boxes: tensor([[670.1221, 389.6674, 809.4929, 876.5032,   0.8875,   0.0000]], device='cuda:0')   
cls: tensor([0.], device='cuda:0')
conf: tensor([0.8875], device='cuda:0')
data: tensor([[670.1221, 389.6674, 809.4929, 876.5032,   0.8875,   0.0000]], device='cuda:0')    
id: None
is_track: False
orig_shape: tensor([1080,  810], device='cuda:0')
shape: torch.Size([1, 6])
xywh: tensor([[739.8075, 633.0853, 139.3708, 486.8358]], device='cuda:0')
xywhn: tensor([[0.9133, 0.5862, 0.1721, 0.4508]], device='cuda:0')
xyxy: tensor([[670.1221, 389.6674, 809.4929, 876.5032]], device='cuda:0')
xyxyn: tensor([[0.8273, 0.3608, 0.9994, 0.8116]], device='cuda:0')
masks:[array([[     804.94,       391.5],
       [     794.81,      401.62],
       [     794.81,      403.31],
       [     791.44,      406.69],
       ......
probs:None

我們可以使用Result對象的plot()函數(shù)在圖像對象中繪制結(jié)果。它繪制在結(jié)果對象中找到的所有組件(框、掩碼、分類日志等)

annotated_frame = results[0].plot()
# Display the annotated frame
cv2.imshow("YOLOv8 Inference", annotated_frame)
cv2.waitKey()
cv2.destroyAllWindows()

【目標(biāo)檢測】YOLOV8實(shí)戰(zhàn)入門(五)模型預(yù)測


使用OpenCV(cv2)和YOLOv8對視頻幀運(yùn)行推理的Python腳本。

import cv2
from ultralytics import YOLO

# Load the YOLOv8 model
model = model = YOLO("yolov8-seg.yaml").load('yolov8n-seg.pt')

# Open the video file
video_path = "sample.mp4"
cap = cv2.VideoCapture(video_path)

# Loop through the video frames
while cap.isOpened():
    # Read a frame from the video
    success, frame = cap.read()

    if success:
        # Run YOLOv8 inference on the frame
        results = model(frame)

        # Visualize the results on the frame
        annotated_frame = results[0].plot()

        # Display the annotated frame
        cv2.imshow("YOLOv8 Inference", annotated_frame)

        # Break the loop if 'q' is pressed
        if cv2.waitKey(1) & 0xFF == ord("q"):
            break
    else:
        # Break the loop if the end of the video is reached
        break

# Release the video capture object and close the display window
cap.release()
cv2.destroyAllWindows()

【目標(biāo)檢測】YOLOV8實(shí)戰(zhàn)入門(五)模型預(yù)測文章來源地址http://www.zghlxwxcb.cn/news/detail-458439.html

到了這里,關(guān)于【目標(biāo)檢測】YOLOV8實(shí)戰(zhàn)入門(五)模型預(yù)測的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【YOLOv8】實(shí)戰(zhàn)一:手把手教你使用YOLOv8實(shí)現(xiàn)實(shí)時目標(biāo)檢測

    【YOLOv8】實(shí)戰(zhàn)一:手把手教你使用YOLOv8實(shí)現(xiàn)實(shí)時目標(biāo)檢測

    ????博客主頁: virobotics的CSDN博客:LabVIEW深度學(xué)習(xí)、人工智能博主 ??所屬專欄:『LabVIEW深度學(xué)習(xí)實(shí)戰(zhàn)』 ??上期文章: LabVIEW+OpenCV快速搭建人臉識別系統(tǒng)(附源碼)) ??如覺得博主文章寫的不錯或?qū)δ阌兴鶐椭脑?,還望大家多多支持呀! 歡迎大家?關(guān)注、??點(diǎn)贊、?收

    2024年02月02日
    瀏覽(27)
  • 目標(biāo)檢測再升級!YOLOv8模型訓(xùn)練和部署

    目標(biāo)檢測再升級!YOLOv8模型訓(xùn)練和部署

    YOLOv8 是 Ultralytics 開發(fā)的 YOLO(You Only Look Once)物體檢測和圖像分割模型的最新版本。YOLOv8是一種尖端的、最先進(jìn)的SOTA模型,它建立在先前YOLO成功基礎(chǔ)上,并引入了新功能和改進(jìn),以進(jìn)一步提升性能和靈活性。它可以在大型數(shù)據(jù)集上進(jìn)行訓(xùn)練,并且能夠在各種硬件平臺上運(yùn)行

    2024年01月20日
    瀏覽(37)
  • 基于YOLOV8模型的海上船只目標(biāo)檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    基于YOLOV8模型的海上船只目標(biāo)檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    摘要:基于YOLOV8模型的海上船只目標(biāo)檢測系統(tǒng)用于日常生活中檢測與定位海上船只目標(biāo)(散裝貨船(bulk cargo carrier)、集裝箱船(container ship)、漁船(fishing boat)、普通貨船(general cargo ship)、礦石船(ore carrier)和客輪(passenger ship)),利用深度學(xué)習(xí)算法可實(shí)現(xiàn)圖片、視

    2024年02月09日
    瀏覽(25)
  • 【深度學(xué)習(xí)】YOLOv8訓(xùn)練過程,YOLOv8實(shí)戰(zhàn)教程,目標(biāo)檢測任務(wù)SOTA,關(guān)鍵點(diǎn)回歸

    【深度學(xué)習(xí)】YOLOv8訓(xùn)練過程,YOLOv8實(shí)戰(zhàn)教程,目標(biāo)檢測任務(wù)SOTA,關(guān)鍵點(diǎn)回歸

    https://github.com/ultralytics/ultralytics 官方教程:https://docs.ultralytics.com/modes/train/ 更建議下載代碼后使用 下面指令安裝,這樣可以更改源碼,如果不需要更改源碼就直接pip install ultralytics也是可以的。 這樣安裝后,可以直接修改yolov8源碼,并且可以立即生效。此圖是命令解釋: 安

    2024年02月10日
    瀏覽(24)
  • 基于YOLOV8模型的西紅柿目標(biāo)檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    基于YOLOV8模型的西紅柿目標(biāo)檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    摘要:基于YOLOV8模型的西紅柿目標(biāo)檢測系統(tǒng)可用于日常生活中檢測與定位西紅柿目標(biāo),利用深度學(xué)習(xí)算法可實(shí)現(xiàn)圖片、視頻、攝像頭等方式的目標(biāo)檢測,另外本系統(tǒng)還支持圖片、視頻等格式的結(jié)果可視化與結(jié)果導(dǎo)出。本系統(tǒng)采用YOLOv8目標(biāo)檢測算法訓(xùn)練數(shù)據(jù)集,使用Pysdie6庫來搭

    2024年02月11日
    瀏覽(23)
  • 基于YOLOv8模型的深海魚目標(biāo)檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    基于YOLOv8模型的深海魚目標(biāo)檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    摘要:基于YOLOv8模型和BDD數(shù)據(jù)集的自動駕駛目標(biāo)檢測系統(tǒng)可用于日常生活與海洋中檢測與定位深海魚目標(biāo),利用深度學(xué)習(xí)算法可實(shí)現(xiàn)圖片、視頻、攝像頭等方式的目標(biāo)檢測,另外本系統(tǒng)還支持圖片、視頻等格式的結(jié)果可視化與結(jié)果導(dǎo)出。本系統(tǒng)采用YOLOv8目標(biāo)檢測算法訓(xùn)練數(shù)據(jù)

    2024年02月07日
    瀏覽(25)
  • YOLOV8目標(biāo)檢測——最全最完整模型訓(xùn)練過程記錄

    YOLOV8目標(biāo)檢測——最全最完整模型訓(xùn)練過程記錄

    本文記錄一下yolov8訓(xùn)練目標(biāo)檢測模型的過程,以及其中的一些需要注意的地方。本人是yolov5直接使用的yolov8,因此本文也記錄了與yolov5的訓(xùn)練過程不一樣的地方。 原創(chuàng)聲明:如有轉(zhuǎn)載請注明文章來源。碼字不易,如對卿有所幫助,歡迎評論、點(diǎn)贊、收藏。 這邊說一下,pip這

    2024年02月07日
    瀏覽(25)
  • 基于YOLOv8模型的五類動物目標(biāo)檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    基于YOLOv8模型的五類動物目標(biāo)檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    摘要:基于YOLOv8模型的五類動物目標(biāo)檢測系統(tǒng)可用于日常生活中檢測與定位動物目標(biāo)(狼、鹿、豬、兔和浣熊),利用深度學(xué)習(xí)算法可實(shí)現(xiàn)圖片、視頻、攝像頭等方式的目標(biāo)檢測,另外本系統(tǒng)還支持圖片、視頻等格式的結(jié)果可視化與結(jié)果導(dǎo)出。本系統(tǒng)采用YOLOv8目標(biāo)檢測算法訓(xùn)

    2024年02月12日
    瀏覽(27)
  • 基于YOLOV8模型的農(nóng)作機(jī)器和行人目標(biāo)檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    基于YOLOV8模型的農(nóng)作機(jī)器和行人目標(biāo)檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    摘要:基于YOLOV8模型的農(nóng)作機(jī)器和行人目標(biāo)檢測系統(tǒng)可用于日常生活中檢測與定位農(nóng)作機(jī)和行人目標(biāo),利用深度學(xué)習(xí)算法可實(shí)現(xiàn)圖片、視頻、攝像頭等方式的目標(biāo)檢測,另外本系統(tǒng)還支持圖片、視頻等格式的結(jié)果可視化與結(jié)果導(dǎo)出。本系統(tǒng)采用YOLOv8目標(biāo)檢測算法訓(xùn)練數(shù)據(jù)集,

    2024年02月10日
    瀏覽(25)
  • 基于YOLOV8模型和CCPD數(shù)據(jù)集的車牌目標(biāo)檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    基于YOLOV8模型和CCPD數(shù)據(jù)集的車牌目標(biāo)檢測系統(tǒng)(PyTorch+Pyside6+YOLOv8模型)

    摘要:基于YOLOV8模型和CCPD數(shù)據(jù)集的車牌目標(biāo)檢測系統(tǒng)可用于日常生活中檢測與定位車牌目標(biāo),利用深度學(xué)習(xí)算法可實(shí)現(xiàn)圖片、視頻、攝像頭等方式的目標(biāo)檢測,另外本系統(tǒng)還支持圖片、視頻等格式的結(jié)果可視化與結(jié)果導(dǎo)出。本系統(tǒng)采用YOLOv8目標(biāo)檢測算法訓(xùn)練數(shù)據(jù)集,使用Py

    2024年02月10日
    瀏覽(26)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包