国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

yolov8 OpenCV DNN 部署 推理報(bào)錯(cuò)

這篇具有很好參考價(jià)值的文章主要介紹了yolov8 OpenCV DNN 部署 推理報(bào)錯(cuò)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

yolov8是yolov5作者發(fā)布的新作品

目錄

1、下載源碼

2、下載權(quán)重

3、配置環(huán)境

4、導(dǎo)出onnx格式

?5、OpenCV DNN 推理


1、下載源碼

git clone https://github.com/ultralytics/ultralytics.git

2、下載權(quán)重

git clone https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n.pt

3、配置環(huán)境

 pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

4、導(dǎo)出onnx格式

項(xiàng)目下models/export.md有說明:

yolov8 OpenCV DNN 部署 推理報(bào)錯(cuò)

?我在目錄下用命令行沒有反應(yīng),所以在項(xiàng)目目錄下新建一個(gè)python文件【my_export.py】,輸入:

from ultralytics import YOLO

# Load a model
model = YOLO('yolov8n.pt')  # load an official model
# model = YOLO('path/to/best.pt')  # load a custom trained

# Export the model
model.export(format='onnx')

然后執(zhí)行:

 python my_export.py

輸出如下:

yolov8 OpenCV DNN 部署 推理報(bào)錯(cuò)

?5、OpenCV DNN 推理

用之前博客寫的代碼進(jìn)行推理,發(fā)現(xiàn)有報(bào)錯(cuò): yolov8 OpenCV DNN 部署 推理報(bào)錯(cuò)

?用netron查看onnx格式模型:

yolov8 OpenCV DNN 部署 推理報(bào)錯(cuò)
yolov8n.onnx

再查看之前成功部署過的yolov5n.onnx:

yolov8 OpenCV DNN 部署 推理報(bào)錯(cuò)
yolov5n.onnx

?所以部署代碼可能不通用。

又在項(xiàng)目下examples/YOLOv8-CPP-Inference找到部署代碼,運(yùn)行一下依然報(bào)錯(cuò):

yolov8 OpenCV DNN 部署 推理報(bào)錯(cuò)

?看一下Cmakelist.txt:

yolov8 OpenCV DNN 部署 推理報(bào)錯(cuò)

?項(xiàng)目里面的C++推理代碼應(yīng)該也是基于OpenCV DNN的。

然后我就在網(wǎng)上找原因,發(fā)現(xiàn)是OpenCV版本低了,yolov8? opencv-dnn部署需要4.7以上的版本,我現(xiàn)在用的是OpenCV 4.5.5。

如果是onnxruntime的話就不需要,應(yīng)該4.0以上的版本都可以,但是之前博客寫的yolov5 的onnxruntime C++推理代碼還是用不了,因?yàn)閥olov8的輸出與yolov5的輸出不一樣:

1、輸出維度順序已經(jīng)變了(可以從上面的netron展示圖看到)

2、另外yolov8輸出中的84維度是少了一個(gè)yolov5的置信度(yolov5是85維度)

寫到這里頭有點(diǎn)大,思考后選擇用onnxruntime推理。因?yàn)椴幌朐傺bopencv4.7了,opencv-C++編譯安裝起來確實(shí)有點(diǎn)麻煩。文章來源地址http://www.zghlxwxcb.cn/news/detail-463096.html

到了這里,關(guān)于yolov8 OpenCV DNN 部署 推理報(bào)錯(cuò)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • YOLOV8 Onnxruntime Opencv DNN C++部署

    YOLOV8 Onnxruntime Opencv DNN C++部署

    ? ? ? OpenCV由各種不同組件組成。OpenCV源代碼主要由OpenCV core(核心庫)、opencv_contrib和opencv_extra等子倉庫組成。近些年,OpenCV的主倉庫增加了深度學(xué)習(xí)相關(guān)的子倉庫:OpenVINO(即DLDT, Deep Learning Deployment Toolkit)、open_model_zoo,以及標(biāo)注工具CVAT等。 ? ? ? ? OpenCV深度學(xué)習(xí)模塊只

    2024年02月16日
    瀏覽(47)
  • yolov5 opencv dnn部署自己的模型

    yolov5 opencv dnn部署自己的模型

    github開源代碼地址 yolov5官網(wǎng)還提供的dnn、tensorrt推理鏈接 本人使用的opencv c++ github代碼,代碼作者非本人,也是上面作者推薦的鏈接之一 如果想要嘗試直接運(yùn)行源碼中的yolo.cpp文件和yolov5s.pt推理sample.mp4,請(qǐng)參考這個(gè)鏈接的介紹 使用github源碼結(jié)合自己導(dǎo)出的onnx模型推理自己的

    2024年01月23日
    瀏覽(48)
  • yolov5 opencv dnn部署 github代碼

    yolov5 opencv dnn部署 github代碼

    源碼地址 yolov5官網(wǎng)還提供的dnn、tensorrt推理鏈接 本人使用的opencv c++ github代碼,代碼作者非本人,也是上面作者推薦的鏈接之一 實(shí)現(xiàn)推理源碼中作者的yolov5s.onnx 推理?xiàng)l件 實(shí)現(xiàn)推理code中作者的yolov5s.onnx windows 10 Visual Studio 2019 Nvidia GeForce GTX 1070 opencv 4.5.5、opencv4.7.0 (注意 4.7.0代碼

    2024年01月23日
    瀏覽(49)
  • YOLOv5 實(shí)例分割 用 OPenCV DNN C++ 部署

    YOLOv5 實(shí)例分割 用 OPenCV DNN C++ 部署

    如果之前從沒接觸過實(shí)例分割,建議先了解一下實(shí)例分割的輸出是什么。 實(shí)例分割兩個(gè)關(guān)鍵輸出是:mask系數(shù)、mask原型 本文參考自該項(xiàng)目(這么優(yōu)秀的代碼當(dāng)然要給star!):GitHub - UNeedCryDear/yolov5-seg-opencv-onnxruntime-cpp: yolov5 segmentation with onnxruntime and opencv 目錄 Pre: 一、代碼總結(jié)

    2024年02月12日
    瀏覽(26)
  • 模型實(shí)戰(zhàn)(11)之win10下Opencv+CUDA部署yolov5、yolov8算法

    模型實(shí)戰(zhàn)(11)之win10下Opencv+CUDA部署yolov5、yolov8算法

    測(cè)試環(huán)境:AMDRH7000+RTX3050+win10+vs2-10+opencv455+cuda11.7 關(guān)于opencv470+contrib+cuda的編譯,可以詳見:Win10下Opencv+CUDA聯(lián)合編譯詳細(xì)教程 本文代碼同時(shí)支持 yolov5 、 yolov8 兩個(gè)模型,詳細(xì)過程將在文中給出, 完整代碼倉庫最后給出 其中,yolov8在opencv-DNN + CUDA下的效果如下: 新建VS項(xiàng)目,名

    2024年02月16日
    瀏覽(23)
  • 基于樹莓派Qt+opencv+yolov5-Lite+C++部署深度學(xué)習(xí)推理

    基于樹莓派Qt+opencv+yolov5-Lite+C++部署深度學(xué)習(xí)推理

    ? ? ? ? 本文是基于 qt和opencv的dnn 深度學(xué)習(xí)推理模塊,在樹莓派上部署YOLO系列推理,適用于yolov5-6.1以及yolov5-Lite,相比直接用python的onnxruntime,用基于opencv的dnn模塊,利用訓(xùn)練生成的onnx模型,即可快速部署,不需要在樹莓派上額外安裝深度學(xué)習(xí)的一系列環(huán)境,因?yàn)槲覀冎?/p>

    2024年04月16日
    瀏覽(135)
  • YOLOv6 4.0 使用記錄: OpenCV DNN C++推理

    YOLOv6 4.0 使用記錄: OpenCV DNN C++推理

    目錄 1、下載源碼 ?2、下載權(quán)重文件 ?3、配置環(huán)境 4、推理 6、ONNX格式導(dǎo)出 權(quán)重文件為yolov6list_s.pt 權(quán)重為yolov6.pt ?7、opencv DNN推理 8、個(gè)人總結(jié) 下載最新的4.0版本的 我下的是YOLOv6Lite-S cd到項(xiàng)目目錄,運(yùn)行 圖片推理沒問題,但是輸入為攝像頭的時(shí)候不會(huì)彈出顯示窗口 權(quán)重文件

    2024年02月02日
    瀏覽(15)
  • OnnxRuntime TensorRT OpenCV::DNN性能對(duì)比(YoloV8)實(shí)測(cè)

    OnnxRuntime TensorRT OpenCV::DNN性能對(duì)比(YoloV8)實(shí)測(cè)

    之前把ORT的一套推理環(huán)境框架搭好了,在項(xiàng)目中也運(yùn)行得非常愉快,實(shí)現(xiàn)了cpu/gpu,fp32/fp16的推理運(yùn)算,同onnx通用模型在不同推理框架下的性能差異對(duì)比貼一下,記錄一下自己對(duì)各種推理框架的學(xué)習(xí)狀況 YoloV8模型大小 模型名稱 參數(shù)量 NANO 3.2M ... ... CPU推理框架性能比較 框架 推理耗時(shí)

    2024年02月14日
    瀏覽(32)
  • 用opencv的DNN模塊做Yolov5目標(biāo)檢測(cè)(純干貨,源碼已上傳Github)

    用opencv的DNN模塊做Yolov5目標(biāo)檢測(cè)(純干貨,源碼已上傳Github)

    最近在微信公眾號(hào)里看到多篇講解yolov5在openvino部署做目標(biāo)檢測(cè)文章,但是沒看到過用opencv的dnn模塊做yolov5目標(biāo)檢測(cè)的。于是,我就想著編寫一套用opencv的dnn模塊做yolov5目標(biāo)檢測(cè)的程序。在編寫這套程序時(shí),遇到的bug和解決辦法,在這篇文章里講述一下。 在yolov5之前的yolov3和

    2024年02月02日
    瀏覽(27)
  • 【模型部署 01】C++實(shí)現(xiàn)GoogLeNet在OpenCV DNN、ONNXRuntime、TensorRT、OpenVINO上的推理部署

    【模型部署 01】C++實(shí)現(xiàn)GoogLeNet在OpenCV DNN、ONNXRuntime、TensorRT、OpenVINO上的推理部署

    深度學(xué)習(xí)領(lǐng)域常用的基于CPU/GPU的推理方式有OpenCV DNN、ONNXRuntime、TensorRT以及OpenVINO。這幾種方式的推理過程可以統(tǒng)一用下圖來概述。整體可分為模型初始化部分和推理部分,后者包括步驟2-5。 以GoogLeNet模型為例,測(cè)得幾種推理方式在推理部分的耗時(shí)如下: 結(jié)論: GPU加速首選

    2024年02月06日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包