????博客主頁: virobotics的CSDN博客:LabVIEW深度學(xué)習(xí)、人工智能博主
??所屬專欄:『LabVIEW深度學(xué)習(xí)實戰(zhàn)』
??上期文章: 【YOLOv8-seg】實戰(zhàn)一:手把手教你使用YOLOv8實現(xiàn)實例分割
??如覺得博主文章寫的不錯或?qū)δ阌兴鶐椭脑?,還望大家多多支持呀! 歡迎大家?關(guān)注、??點贊、?收藏、??訂閱專欄
前言
Hello,大家好,這里是virobotics。上一篇博客,我們給大家介紹了YOLOv8-Seg在LabVIEW中使用ONNXRuntime實現(xiàn)部署,今天我們一起來看一下LabVIEW使用OpenVINO工具包調(diào)用YOLOv8-Seg實現(xiàn)實例分割。
一、YOLOv8簡介
前面我們在給各位讀者介紹YOLOv8目標檢測的時候介紹過YOLOv8, YOLOv8是由Ultralytics 發(fā)布的。與之前的YOLO相比,YOLOv8 模型更快、更準確,同時為訓(xùn)練模型提供統(tǒng)一框架,以執(zhí)行以下基本任務(wù),包括:目標檢測、實例分割、圖像分類、人體姿態(tài)。
YOLOv8-seg 有 5 個不同模型大小的預(yù)訓(xùn)練模型:n、s、m、l 和 x。其中 YOLOv8 Nano Seg(YOLOv8n-seg)是最小的模型,但速度最快;而 YOLOv8 Extra Large Seg (YOLOv8x-seg) 是最準確的模型,但速度最慢。
每個模型的準確率及速度如下:
- YOLOv8官方開源地址:https://github.com/ultralytics/ultralytics
二、環(huán)境搭建
2.1 部署本項目時所用環(huán)境
- 操作系統(tǒng):Windows10
- python:3.6及以上
- LabVIEW:2018及以上 64位版本
- AI視覺工具包:techforce_lib_opencv_cpu-1.0.0.98.vip
- onnx工具包:virobotics_lib_onnx_cuda_tensorrt-1.0.0.16.vip【1.0.0.16及以上版本】或virobotics_lib_onnx_cpu-1.13.1.2.vip
2.2 LabVIEW工具包下載及安裝
- AI視覺工具包下載與安裝參考:
https://blog.csdn.net/virobotics/article/details/123656523 - onnx工具包下載與安裝參考:
https://blog.csdn.net/virobotics/article/details/124998746
三、導(dǎo)出YOLOv8-seg 實例分割onnx模型
注意:本教程已經(jīng)為大家提供了YOLOv8-seg的onnx模型,可跳過本步驟,直接進行步驟四-項目實戰(zhàn)。若是想要了解YOLOv8-seg的onnx模型如何導(dǎo)出,則可繼續(xù)閱讀本部分內(nèi)容。
下面我們來介紹onnx模型的導(dǎo)出(以YOLOv8s-seg為例,想要導(dǎo)出其他模型的方式也一樣,只需要修改名字即可)
3.1 安裝YOLOv8
YOLOv8的安裝有兩種方式,pip安裝和GitHub安裝。
- pip安裝
pip install ultralytics -i https://pypi.douban.com/simple/
- GitHub安裝
git clone https://github.com/ultralytics/ultralytics
cd ultralytics
pip install -e '.[dev]'
安裝完成后就可以通過yolo命令在命令行進行使用了。
3.2 導(dǎo)出模型為onnx
首先使用命令:
yolo export model=yolov8s-seg.pt format=onnx
完成yolov8s-seg.onnx模型導(dǎo)出,如下圖所示。
YOLOv8-seg模型一共有兩個輸出:
第一個輸出:“output0”;type:float32[1,116,8400]。其中116的前84個列與 YOLOv8目標檢測模型輸出定義一樣,即cx,cy,w,h這4項再加80個類別的分數(shù);后32列用于計算掩膜數(shù)據(jù)。
第二個輸出:“output1”;type:float32[1,32,160,160]。output0后32個字段與output1的數(shù)據(jù)做矩陣乘法后得到的結(jié)果,即為對應(yīng)目標的掩膜數(shù)據(jù)。
如果覺得上面方式不方便,那我們也可以寫一個python腳本,快速導(dǎo)出yolov8的onnx模型,程序如下:
from ultralytics import YOLO
# Load a model
model = YOLO("\models\yolov8s-seg.pt") # load an official model
# Export the model
model.export(format="onnx")
注:有朋友因為網(wǎng)絡(luò)問題,會顯示下載pt失敗,可直接使用本項目中已經(jīng)下載好的yolov8s-seg.pt,如需其他大小的模型,可在該鏈接中下載:https://download.csdn.net/download/virobotics/87704235
四、項目實踐
實現(xiàn)效果:LabVIEW+OpenVINO加速YOLOv8-seg實例分割
-
框架源碼;
-
運行效果
五、項目源碼
如需源碼,請在一鍵三聯(lián)并訂閱本專欄后評論區(qū)留下郵箱
總結(jié)
以上就是今天要給大家分享的內(nèi)容,希望對大家有用。下一篇文章會給大家更新使用在LabVIEW中使用TensorRT來部署加速YOLOv8實現(xiàn)實例分割,我是virobotics,我們下篇文章見~
如果文章對你有幫助,歡迎?關(guān)注、??點贊、?收藏、??訂閱專欄
推薦閱讀文章來源:http://www.zghlxwxcb.cn/news/detail-539116.html
LabVIEW圖形化的AI視覺開發(fā)平臺(非NI Vision),大幅降低人工智能開發(fā)門檻
LabVIEW圖形化的AI視覺開發(fā)平臺(非NI Vision)VI簡介
LabVIEW AI視覺工具包OpenCV Mat基本用法和屬性
手把手教你使用LabVIEW人工智能視覺工具包快速實現(xiàn)圖像讀取與采集
LabVIEW開放神經(jīng)網(wǎng)絡(luò)交互工具包(ONNX)下載與超詳細安裝教程
手把手教你使用LabVIEW實現(xiàn)Mask R-CNN圖像實例分割(含源碼)
??技術(shù)交流 · 一起學(xué)習(xí) · 咨詢分享,請聯(lián)系??文章來源地址http://www.zghlxwxcb.cn/news/detail-539116.html
到了這里,關(guān)于【YOLOv8-Seg】實戰(zhàn)二:LabVIEW+OpenVINO加速YOLOv8-seg實例分割的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!