????博客主頁: virobotics的CSDN博客:LabVIEW深度學習、人工智能博主
??所屬專欄:『LabVIEW深度學習實戰(zhàn)』
??上期文章: 手把手教你使用LabVIEW TensorRT實現(xiàn)圖像分類實戰(zhàn)(含源碼)
??如覺得博主文章寫的不錯或?qū)δ阌兴鶐椭脑?,還望大家多多支持呀! 歡迎大家?關(guān)注、??點贊、?收藏、??訂閱專欄
前言
前面我們給大家介紹了使用OpenCV以及ONNX工具包實現(xiàn)yolov5在LabVIEW中的部署,有英偉達顯卡的朋友們可能已經(jīng)感受過使用cuda加速時yolov5的速度,今天主要和大家分享在LabVIEW中使用純TensoRT工具包快速部署并實現(xiàn)yolov5的物體識別,本博客中使用的智能工具包可到主頁置頂博客https://blog.csdn.net/virobotics/article/details/129304465
中安裝。若配置運行過程中遇到困難,歡迎大家評論區(qū)留言,博主將盡力解決。
以下是YOLOv5的相關(guān)筆記總結(jié),希望對大家有所幫助。
內(nèi)容 | 地址鏈接 |
---|---|
【YOLOv5】LabVIEW+OpenVINO讓你的YOLOv5在CPU上飛起來 | https://blog.csdn.net/virobotics/article/details/124951862 |
【YOLOv5】LabVIEW OpenCV dnn快速實現(xiàn)實時物體識別(Object Detection) | https://blog.csdn.net/virobotics/article/details/124929483 |
【YOLOv5】手把手教你使用LabVIEW ONNX Runtime部署 TensorRT加速,實現(xiàn)YOLOv5實時物體識別(含源碼) | https://blog.csdn.net/virobotics/article/details/124981658 |
一、關(guān)于YOLOv5
YOLOv5是在 COCO 數(shù)據(jù)集上預(yù)訓(xùn)練的一系列對象檢測架構(gòu)和模型。表現(xiàn)要優(yōu)于谷歌開源的目標檢測框架 EfficientDet,在檢測精度和速度上相比yolov4都有較大的提高。本博客,我們以YOLOv5 6.1版本來介紹相關(guān)的部署開發(fā)。
YOLOv5相比于前面yolo模型的主要特點是:
1、小目標的檢測精度上有明顯的提高;
2、能自適應(yīng)錨框計算
3、具有數(shù)據(jù)增強功能,隨機縮放,裁剪,拼接等功能
4、靈活性極高、速度超快,模型超小、在模型的快速部署上具有極強優(yōu)勢
關(guān)于YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)解釋網(wǎng)上有很多,這里就不再贅述了,大家可以看其他大神對于YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)的解析。
二、YOLOv5模型的獲取
為方便使用,博主已經(jīng)將yolov5模型轉(zhuǎn)化為onnx格式,可在百度網(wǎng)盤下載
鏈接:https://pan.baidu.com/s/15dwoBM4W-5_nlRj4G9EhRg?pwd=yiku
提取碼:yiku
1.下載源碼
將Ultralytics開源的YOLOv5代碼Clone或下載到本地,可以直接點擊Download ZIP進行下載,
下載地址:https://github.com/ultralytics/yolov5
2.安裝模塊
解壓剛剛下載的zip文件,然后安裝yolov5需要的模塊,記住cmd的工作路徑要在yolov5文件夾下:
打開cmd切換路徑到y(tǒng)olov5文件夾下,并輸入如下指令,安裝yolov5需要的模塊
pip install -r requirements.txt
3.下載預(yù)訓(xùn)練模型
打開cmd,進入python環(huán)境,使用如下指令下載預(yù)訓(xùn)練模型:
import torch
# Model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s') # or yolov5n - yolov5x6, custom
成功下載后如下圖所示:
4.轉(zhuǎn)換為onnx模型
將.pt文件轉(zhuǎn)化為.onnx文件,在cmd中輸入轉(zhuǎn)onnx的命令(記得將export.py和pt模型放在同一路徑下):
python export.py --weights yolov5s.pt --include onnx
如下圖所示為轉(zhuǎn)化成功界面
其中yolov5s可替換為yolov5m\yolov5m\yolov5l\yolov5x
三、LabVIEW+TensorRT的yolov5部署實戰(zhàn)(yolov5_trt_img.vi)
如需要查看TensorRT工具包相關(guān)vi含義,可查看:https://blog.csdn.net/virobotics/article/details/129492651
1.onnx轉(zhuǎn)化為engine(onnx to engine.vi)
使用onnx_to_engine.vi,將該vi拖拽至前面板空白區(qū)域,創(chuàng)建并輸入onnx的路徑以及engine的路徑,type即精度,可選擇FP32或FP16,肉眼觀看精度無大差別。(一般FP16模型比FP32速度快一倍)
轉(zhuǎn)換的完整程序如下:
點擊運行,等待1~3分鐘,模型轉(zhuǎn)換成功,可在剛剛設(shè)定的路徑中找到我們轉(zhuǎn)化好的mobilenet.engine.
Q:為什么要轉(zhuǎn)換模型,不直接調(diào)用ONNX?
A:tensorRT內(nèi)部加載ONNX后其實是做了一個轉(zhuǎn)換模型的工作,該過程時間長、占用內(nèi)存巨大。因此不推薦每次初始化都加載ONNX模型,而是加載engine。
2.部署
模型初始化
- 加載yolov5s.engine文件
- 設(shè)置輸入輸出緩存
? 輸入大小為13640640
? 輸出大小為125200*85
yolov5的預(yù)處理
- LetterBox
- blobFromImage,包含如下步驟:
1) img=img/255.0
2) img = img[None] #從(640,640,3)擴充維度至(1,640,640,3)
3) input=img.transpose(0,3,1,2) # BHWC to BCHW
模型推理
- 推薦使用數(shù)據(jù)指針作為輸入給到run.vi
- 數(shù)據(jù)的大小為13640*640
獲取推理結(jié)果
- 循環(huán)外初始化一個25200*85的二維數(shù)組
- 此數(shù)組作為Get_Result的輸入,另一個輸入為index=0
- 輸出為25200*85的二維數(shù)組結(jié)果
后處理
本范例中,后處理方式和使用onnx一樣
完整源碼
運行結(jié)果
項目源碼
源碼下載鏈接:https://pan.baidu.com/s/1y0scJ8tg5nzjJK4iPvNwNQ?pwd=yiku
附加說明
操作系統(tǒng):Windows10
python:3.6及以上
LabVIEW:2018及以上 64位版本
視覺工具包:techforce_lib_opencv_cpu-1.0.0.98.vip
LabVIEW TensorRT工具包:virobotics_lib_tensorrt-1.0.0.22.vip
運行結(jié)果所用顯卡:RTX3060
總結(jié)
以上就是今天要給大家分享的內(nèi)容,希望對大家有用文章來源:http://www.zghlxwxcb.cn/news/detail-623588.html
如果文章對你有幫助,歡迎?關(guān)注、??點贊、?收藏、??訂閱專欄文章來源地址http://www.zghlxwxcb.cn/news/detail-623588.html
到了這里,關(guān)于【YOLOv5】LabVIEW+TensorRT的yolov5部署實戰(zhàn)(含源碼)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!