国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

linux下 yolov8 tensorrt模型部署

這篇具有很好參考價(jià)值的文章主要介紹了linux下 yolov8 tensorrt模型部署。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

  • TensorRT系列之 Windows10下yolov8 tensorrt模型加速部署

  • TensorRT系列之 Linux下 yolov8 tensorrt模型加速部署

  • TensorRT系列之 Linux下 yolov7 tensorrt模型加速部署

  • TensorRT系列之 Linux下 yolov6 tensorrt模型加速部署

  • TensorRT系列之 Linux下 yolov5 tensorrt模型加速部署

  • TensorRT系列之 Linux下 yolox tensorrt模型加速部署

  • TensorRT系列之 Linux下 u2net tensorrt模型加速部署

  • 更多(點(diǎn)我進(jìn)去)…

ubuntu下yolov8 tensorrt模型加速部署【實(shí)戰(zhàn)】

TensorRT-Alpha基于tensorrt+cuda c++實(shí)現(xiàn)模型end2end的gpu加速,支持win10、linux,在2023年已經(jīng)更新模型:YOLOv8, YOLOv7, YOLOv6, YOLOv5, YOLOv4, YOLOv3, YOLOX, YOLOR,pphumanseg,u2net,EfficientDet。
倉(cāng)庫(kù)TensorRT-Alpha:https://github.com/FeiYull/TensorRT-Alpha

一、加速結(jié)果展示

1.1 性能速覽

??快速看看yolov8n 在移動(dòng)端RTX2070m(8G)的新能表現(xiàn):

model video resolution model input size GPU Memory-Usage GPU-Util
yolov8n 1920x1080 8x3x640x640 1093MiB/7982MiB 14%

下圖是yolov8n的運(yùn)行時(shí)間開(kāi)銷,單位是ms:
linux運(yùn)行yolo,TensorRT-Alpha,YOLO高級(jí)篇,深度學(xué)習(xí),目標(biāo)檢測(cè),人工智能,c++,計(jì)算機(jī)視覺(jué)

更多TensorRT-Alpha測(cè)試錄像在B站視頻:
B站:YOLOv8n
B站:YOLOv8s

linux運(yùn)行yolo,TensorRT-Alpha,YOLO高級(jí)篇,深度學(xué)習(xí),目標(biāo)檢測(cè),人工智能,c++,計(jì)算機(jī)視覺(jué)

1.2精度對(duì)齊

下面是左邊是python框架推理結(jié)果,右邊是TensorRT-Alpha推理結(jié)果。
linux運(yùn)行yolo,TensorRT-Alpha,YOLO高級(jí)篇,深度學(xué)習(xí),目標(biāo)檢測(cè),人工智能,c++,計(jì)算機(jī)視覺(jué)

yolov8n : Offical( left ) vs Ours( right )

linux運(yùn)行yolo,TensorRT-Alpha,YOLO高級(jí)篇,深度學(xué)習(xí),目標(biāo)檢測(cè),人工智能,c++,計(jì)算機(jī)視覺(jué)

yolov7-tiny : Offical( left ) vs Ours( right )

linux運(yùn)行yolo,TensorRT-Alpha,YOLO高級(jí)篇,深度學(xué)習(xí),目標(biāo)檢測(cè),人工智能,c++,計(jì)算機(jī)視覺(jué)

yolov6s : Offical( left ) vs Ours( right )

linux運(yùn)行yolo,TensorRT-Alpha,YOLO高級(jí)篇,深度學(xué)習(xí),目標(biāo)檢測(cè),人工智能,c++,計(jì)算機(jī)視覺(jué)

yolov5s : Offical( left ) vs Ours( right )

YOLOv4 YOLOv3 YOLOR YOLOX略。

二、Ubuntu18.04環(huán)境配置

如果您對(duì)tensorrt不是很熟悉,請(qǐng)務(wù)必保持下面庫(kù)版本一致。
請(qǐng)注意: Linux系統(tǒng)安裝以下庫(kù),務(wù)必去進(jìn)入系統(tǒng)bios下,關(guān)閉安全啟動(dòng)(設(shè)置 secure boot 為 disable)

2.1 安裝工具鏈和opencv

sudo apt-get update 
sudo apt-get install build-essential 
sudo apt-get install git
sudo apt-get install gdb
sudo apt-get install cmake
sudo apt-get install libopencv-dev  
# pkg-config --modversion opencv

2.2 安裝Nvidia相關(guān)庫(kù)

注:Nvidia相關(guān)網(wǎng)站需要注冊(cè)賬號(hào)。

2.2.1 安裝Nvidia顯卡驅(qū)動(dòng)

ubuntu-drivers devices
sudo add-apt-repository ppa:graphics-drivers/ppa
sudo apt update
sudo apt install nvidia-driver-470-server # for ubuntu18.04
nvidia-smi

2.2.2 安裝 cuda11.3

  • 進(jìn)入鏈接: https://developer.nvidia.com/cuda-toolkit-archive
  • 選擇:CUDA Toolkit 11.3.0(April 2021)
  • 選擇:[Linux] -> [x86_64] -> [Ubuntu] -> [18.04] -> [runfile(local)]

    在網(wǎng)頁(yè)你能看到下面安裝命令,我這里已經(jīng)拷貝下來(lái):
wget https://developer.download.nvidia.com/compute/cuda/11.3.0/local_installers/cuda_11.3.0_465.19.01_linux.run
sudo sh cuda_11.3.0_465.19.01_linux.run

cuda的安裝過(guò)程中,需要你在bash窗口手動(dòng)作一些選擇,這里選擇如下:

  • select:[continue] -> [accept] -> 接著按下回車鍵取消Driver和465.19.01這個(gè)選項(xiàng),如下圖(it is important!) -> [Install]

    linux運(yùn)行yolo,TensorRT-Alpha,YOLO高級(jí)篇,深度學(xué)習(xí),目標(biāo)檢測(cè),人工智能,c++,計(jì)算機(jī)視覺(jué)
    bash窗口提示如下表示安裝完成
#===========
#= Summary =
#===========

#Driver:   Not Selected
#Toolkit:  Installed in /usr/local/cuda-11.3/
#......

把cuda添加到環(huán)境變量:

vim ~/.bashrc

把下面拷貝到 .bashrc里面

# cuda v11.3
export PATH=/usr/local/cuda-11.3/bin${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda-11.3/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
export CUDA_HOME=/usr/local/cuda-11.3

刷新環(huán)境變量和驗(yàn)證

source ~/.bashrc
nvcc -V

bash窗口打印如下信息表示cuda11.3安裝正常

nvcc: NVIDIA (R) Cuda compiler driver<br>
Copyright (c) 2005-2021 NVIDIA Corporation<br>
Built on Sun_Mar_21_19:15:46_PDT_2021<br>
Cuda compilation tools, release 11.3, V11.3.58<br>
Build cuda_11.3.r11.3/compiler.29745058_0<br>

2.2.3 安裝 cudnn8.2

  • 進(jìn)入網(wǎng)站:https://developer.nvidia.com/rdp/cudnn-archive
  • 選擇: Download cuDNN v8.2.0 (April 23rd, 2021), for CUDA 11.x
  • 選擇: cuDNN Library for Linux (x86_64)
  • 你將會(huì)下載這個(gè)壓縮包: “cudnn-11.3-linux-x64-v8.2.0.53.tgz”
# 解壓
tar -zxvf cudnn-11.3-linux-x64-v8.2.0.53.tgz

將cudnn的頭文件和lib拷貝到cuda11.3的安裝目錄下:

sudo cp cuda/include/cudnn.h /usr/local/cuda/include/
sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64/
sudo chmod a+r /usr/local/cuda/include/cudnn.h
sudo chmod a+r /usr/local/cuda/lib64/libcudnn*

2.2.4 下載 tensorrt8.4.2.4

本教程中,tensorrt只需要下載\、解壓即可,不需要安裝。

  • 進(jìn)入網(wǎng)站: https://developer.nvidia.cn/nvidia-tensorrt-8x-download
    網(wǎng)站更新2023.12:https://developer.nvidia.com/nvidia-tensorrt-8x-download
    (順便,法克 Nvidia)
  • 把這個(gè)打勾: I Agree To the Terms of the NVIDIA TensorRT License Agreement
  • 選擇: TensorRT 8.4 GA Update 1
  • 選擇: TensorRT 8.4 GA Update 1 for Linux x86_64 and CUDA 11.0, 11.1, 11.2, 11.3, 11.4, 11.5, 11.6 and 11.7 TAR Package
  • 你將會(huì)下載這個(gè)壓縮包: “TensorRT-8.4.2.4.Linux.x86_64-gnu.cuda-11.6.cudnn8.4.tar.gz”
# 解壓
tar -zxvf TensorRT-8.4.2.4.Linux.x86_64-gnu.cuda-11.6.cudnn8.4.tar.gz
# 快速驗(yàn)證一下tensorrt+cuda+cudnn是否安裝正常
cd TensorRT-8.4.2.4/samples/sampleMNIST
make
cd ../../bin/

導(dǎo)出tensorrt環(huán)境變量(it is important!),注:將LD_LIBRARY_PATH:后面的路徑換成你自己的!后續(xù)編譯onnx模型的時(shí)候也需要執(zhí)行下面第一行命令

export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/xxx/temp/TensorRT-8.4.2.4/lib
./sample_mnist

bash窗口打印類似如下圖的手寫(xiě)數(shù)字識(shí)別表明cuda+cudnn+tensorrt安裝正常
linux運(yùn)行yolo,TensorRT-Alpha,YOLO高級(jí)篇,深度學(xué)習(xí),目標(biāo)檢測(cè),人工智能,c++,計(jì)算機(jī)視覺(jué)

2.2.5 下載倉(cāng)庫(kù)TensorRT-Alpha并設(shè)置

git clone https://github.com/FeiYull/tensorrt-alpha

設(shè)置您自己TensorRT根目錄:

git clone https://github.com/FeiYull/tensorrt-alpha
cd tensorrt-alpha/cmake
vim common.cmake
# 在文件common.cmake中的第20行中,設(shè)置成你自己的目錄,別和我設(shè)置一樣的路徑eg:
# set(TensorRT_ROOT /root/TensorRT-8.4.2.4)

三、YOLOv8模型部署

3.1 獲取YOLOv8onnx文件

直接在網(wǎng)盤(pán)下載 weiyun or google driver 或者使用如下命令導(dǎo)出onnx:

# ?? yolov8 官方倉(cāng)庫(kù): https://github.com/ultralytics/ultralytics
# ?? yolov8 官方教程: https://docs.ultralytics.com/quickstart/
# ??TensorRT-Alpha will be updated synchronously as soon as possible!

# 安裝 yolov8
conda create -n yolov8 python==3.8 -y
conda activate yolov8
pip install ultralytics==8.0.5
pip install onnx==1.12.0

# 下載官方權(quán)重(".pt" file)
https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8n.pt
https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8s.pt
https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8m.pt
https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8l.pt
https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x.pt
https://github.com/ultralytics/assets/releases/download/v0.0.0/yolov8x6.pt

導(dǎo)出 onnx:

# 640
yolo mode=export model=yolov8n.pt format=onnx dynamic=True  opset=12  #simplify=True
yolo mode=export model=yolov8s.pt format=onnx dynamic=True  opset=12  #simplify=True
yolo mode=export model=yolov8m.pt format=onnx dynamic=True  opset=12  #simplify=True
yolo mode=export model=yolov8l.pt format=onnx dynamic=True  opset=12  #simplify=True
yolo mode=export model=yolov8x.pt format=onnx dynamic=True  opset=12  #simplify=True
# 1280
yolo mode=export model=yolov8x6.pt format=onnx dynamic=True opset=12  #simplify=True

新增更新:
如何使用代碼導(dǎo)出onnx文件。在yolov8官方源碼目錄下新建my_export.py文件,如下代碼:
yaml是官方提供的配置文件,如果是自己訓(xùn)練的模型,那就設(shè)置為自定義yaml文件即可。

from ultralytics import YOLO
# Load a model
model = YOLO('ultralytics/cfg/models/v8/yolov8.yaml')
model = YOLO('yolov8n.pt')  # load an official model
# Export the model
model.export(format='onnx', dynamic=True, opset=12) # 第2、3個(gè)參數(shù)禁止修改

3.2 編譯 onnx

# 把你的onnx文件放到這個(gè)路徑:tensorrt-alpha/data/yolov8
cd tensorrt-alpha/data/yolov8
# 請(qǐng)把LD_LIBRARY_PATH:換成您自己的路徑。
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:~/TensorRT-8.4.2.4/lib
# 640
../../../../TensorRT-8.4.2.4/bin/trtexec   --onnx=yolov8n.onnx  --saveEngine=yolov8n.trt  --buildOnly --minShapes=images:1x3x640x640 --optShapes=images:4x3x640x640 --maxShapes=images:8x3x640x640
../../../../TensorRT-8.4.2.4/bin/trtexec   --onnx=yolov8s.onnx  --saveEngine=yolov8s.trt  --buildOnly --minShapes=images:1x3x640x640 --optShapes=images:4x3x640x640 --maxShapes=images:8x3x640x640
../../../../TensorRT-8.4.2.4/bin/trtexec   --onnx=yolov8m.onnx  --saveEngine=yolov8m.trt  --buildOnly --minShapes=images:1x3x640x640 --optShapes=images:4x3x640x640 --maxShapes=images:8x3x640x640
../../../../TensorRT-8.4.2.4/bin/trtexec   --onnx=yolov8l.onnx  --saveEngine=yolov8l.trt  --buildOnly --minShapes=images:1x3x640x640 --optShapes=images:4x3x640x640 --maxShapes=images:8x3x640x640
../../../../TensorRT-8.4.2.4/bin/trtexec   --onnx=yolov8x.onnx  --saveEngine=yolov8x.trt  --buildOnly --minShapes=images:1x3x640x640 --optShapes=images:4x3x640x640 --maxShapes=images:8x3x640x640
# 1280
../../../../TensorRT-8.4.2.4/bin/trtexec   --onnx=yolov8x6.onnx  --saveEngine=yolov8x6.trt  --buildOnly --minShapes=images:1x3x1280x1280 --optShapes=images:4x3x1280x1280 --maxShapes=images:8x3x1280x1280

你將會(huì)的到例如:yolov8n.trt、yolov8s.trt、yolov8m.trt等文件。

3.3 編譯運(yùn)行

git clone https://github.com/FeiYull/tensorrt-alpha
cd tensorrt-alpha/yolov8
mkdir build
cd build
cmake ..
make -j10
# 注: 效果圖默認(rèn)保存在路徑 tensorrt-alpha/yolov8/build

# 下面參數(shù)解釋
# --show 表示可視化結(jié)果
# --savePath 表示保存,默認(rèn)保存在build目錄
# --savePath=../ 保存在上一級(jí)目錄

## 640
# 推理圖片
./app_yolov8  --model=../../data/yolov8/yolov8n.trt --size=640 --batch_size=1  --img=../../data/6406407.jpg   --show --savePath
./app_yolov8  --model=../../data/yolov8/yolov8n.trt --size=640 --batch_size=4  --video=../../data/people.mp4  --show --savePath

# 推理視頻
./app_yolov8  --model=../../data/yolov8/yolov8n.trt     --size=640 --batch_size=4  --video=../../data/people.mp4  --show --savePath=../

# 在線推理相機(jī)視頻
./app_yolov8  --model=../../data/yolov8/yolov8n.trt     --size=640 --batch_size=2  --cam_id=0  --show

## 1280
# infer camera
./app_yolov8  --model=../../data/yolov8/yolov8x6.trt     --size=1280 --batch_size=2  --cam_id=0  --show

yolov8 tensorrt cuda模型推理加速部署TensorRT-Alpha《ski facility》

yolov8 tensorrt cuda模型推理加速部署TensorRT-Alpha《NewYork-Stree》

yolov7 tensorrt cuda模型推理加速部署TensorRT-Alpha《Korea-Night》

四、如何部署自己訓(xùn)練的yolov8模型

未必避免文章太長(zhǎng),直接給出演示視頻:
yolov8 tensorrt 部署自己訓(xùn)練的模型

五、參考

https://github.com/FeiYull/TensorRT-Alpha文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-713518.html

到了這里,關(guān)于linux下 yolov8 tensorrt模型部署的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 記錄我的tensorrt 部署yolov8

    系統(tǒng) :ubuntu 18.04 代碼 :https://github.com/triple-Mu/YOLOv8-TensorRT conda 環(huán)境 : 按照上面代碼環(huán)境安裝? python==3.8 cuda : 11.8 tensorrt :?8.5.1.7-1+cuda11.8 沒(méi)有cudnn nvidia-tensorrt(conda) :?8.4.1.5 ?Driver Version: 530.41.03 在我電腦上加速 3倍左右?? 我電腦設(shè)備 3060

    2024年02月10日
    瀏覽(20)
  • YOLOv8 Tensorrt Python/C++部署教程

    YOLOv8 Tensorrt Python/C++部署教程

    https://www.bilibili.com/video/BV1Pa4y1N7HS https://github.com/Monday-Leo/YOLOv8_Tensorrt 基于 Tensorrt 加速 Yolov8 ,本項(xiàng)目采用 ONNX轉(zhuǎn)Tensorrt 方案 支持 Windows10 和 Linux 支持 Python/C++ Tensorrt 8.4.3. Cuda 11.6 Cudnn 8.4.1 onnx 1.12.0 安裝 yolov8 倉(cāng)庫(kù),并下載官方模型。 使用官方命令 導(dǎo)出ONNX模型 。 使用本倉(cāng)庫(kù)

    2023年04月25日
    瀏覽(57)
  • yolov8量化部署(基于openvino和tensorrt)

    yolov8量化部署(基于openvino和tensorrt)

    環(huán)境配置: 將pytorch模型轉(zhuǎn)為openvino模型: python量化腳本:(改編自https://github.com/openvinotoolkit/openvino_notebooks/blob/main/notebooks/230-yolov8-optimization/230-yolov8-optimization.ipynb) python推理: C++推理:(openvino庫(kù)讀取xml文件在compile_model時(shí)報(bào)錯(cuò),暫時(shí)不明原因,改用onnx格式推理) 參考:h

    2024年02月09日
    瀏覽(24)
  • yolov8實(shí)戰(zhàn)第六天——yolov8 TensorRT C++ 部署——(踩坑,平坑,保姆教程)

    yolov8實(shí)戰(zhàn)第六天——yolov8 TensorRT C++ 部署——(踩坑,平坑,保姆教程)

    C++ 結(jié)合 TensorRT 部署深度學(xué)習(xí)模型有幾個(gè)關(guān)鍵優(yōu)勢(shì),這些優(yōu)勢(shì)在各種工業(yè)和商業(yè)應(yīng)用中極其重要: 高效的性能 :TensorRT 通過(guò)優(yōu)化深度學(xué)習(xí)模型來(lái)提高推理速度,減少延遲。這對(duì)于實(shí)時(shí)處理應(yīng)用(如視頻分析、機(jī)器人導(dǎo)航等)至關(guān)重要。 降低資源消耗 :TensorRT 優(yōu)化了模型以在

    2024年04月13日
    瀏覽(53)
  • YOLOv8-TensorRT C++ ubuntu部署

    YOLOv8-TensorRT C++ ubuntu部署

    先要安裝好顯卡驅(qū)動(dòng)、CUDA、CUDNN 以u(píng)buntu20.04、顯卡1650安裝470版本的顯卡驅(qū)動(dòng)、11.3版本的CUDA及8.2版本的CUDNN為例 進(jìn)入網(wǎng)站: https://developer.nvidia.com/nvidia-tensorrt-8x-download 進(jìn)行勾選下載: TAR是免安裝直接解壓可用的 解壓: 終端打印出如下內(nèi)容表明cuda+cudnn+tensorrt安裝正常: 可以

    2024年01月20日
    瀏覽(47)
  • YOLOv8在NX上的tensorrt的加速部署(60幀率)

    YOLOv8在NX上的tensorrt的加速部署(60幀率)

    所有過(guò)程均可以參考本人所寫(xiě)的文章 (1)虛擬環(huán)境工具 MInforge3-Linux-aarch64 Jetson 平臺(tái)都是RAM架構(gòu),平常的conda都是基于X86架構(gòu)平臺(tái)的。環(huán)境搭建參考文章 (2)YOLOv8_ros代碼,采用自己創(chuàng)建的yolov_ros代碼。yolov8_ros參考文章 (3)jetpack 環(huán)境(本篇文章是 jetpack5.1.2 )jetpack升級(jí)參考

    2024年01月18日
    瀏覽(23)
  • 改進(jìn)的yolov5目標(biāo)檢測(cè)-yolov5替換骨干網(wǎng)絡(luò)-yolo剪枝(TensorRT及NCNN部署)

    改進(jìn)的yolov5目標(biāo)檢測(cè)-yolov5替換骨干網(wǎng)絡(luò)-yolo剪枝(TensorRT及NCNN部署)

    2022.10.30 復(fù)現(xiàn)TPH-YOLOv5 2022.10.31 完成替換backbone為Ghostnet 2022.11.02 完成替換backbone為Shufflenetv2 2022.11.05 完成替換backbone為Mobilenetv3Small 2022.11.10 完成EagleEye對(duì)YOLOv5系列剪枝支持 2022.11.14 完成MQBench對(duì)YOLOv5系列量化支持 2022.11.16 完成替換backbone為EfficientNetLite-0 2022.11.26 完成替換backbone為

    2024年01月17日
    瀏覽(28)
  • 【YOLO系列】YOLOv8算法(尖端SOTA模型)

    【YOLO系列】YOLOv8算法(尖端SOTA模型)

    在這里粗略回顧一下YOLOv5,這里直接提供YOLOv5的整理的結(jié)構(gòu)圖吧 Backbone:CSPDarkNet結(jié)構(gòu),主要結(jié)構(gòu)思想的體現(xiàn)在C3模塊,這里也是梯度分流的主要思想所在的地方; PAN-FPN:雙流的FPN,必須香,也必須快,但是量化還是有些需要圖優(yōu)化才可以達(dá)到最優(yōu)的性能,比如cat前后的scal

    2024年02月02日
    瀏覽(57)
  • 【TensorRT】TensorRT 部署Yolov5模型(C++)

    【TensorRT】TensorRT 部署Yolov5模型(C++)

    ? 該項(xiàng)目代碼在本人GitHub代碼倉(cāng)庫(kù)開(kāi)源,本人GitHub主頁(yè)為:GitHub ? 項(xiàng)目代碼: ? NVIDIA TensorRT? 是用于高性能深度學(xué)習(xí)推理的 SDK,可為深度學(xué)習(xí)推理應(yīng)用提供低延遲和高吞吐量。詳細(xì)安裝方式參考以下博客: NVIDIA TensorRT 安裝 (Windows C++) ? 經(jīng)典的一個(gè)TensorRT部署模型步驟為

    2023年04月26日
    瀏覽(22)
  • 【YOLO】YOLOv8實(shí)操:環(huán)境配置/自定義數(shù)據(jù)集準(zhǔn)備/模型訓(xùn)練/預(yù)測(cè)

    【YOLO】YOLOv8實(shí)操:環(huán)境配置/自定義數(shù)據(jù)集準(zhǔn)備/模型訓(xùn)練/預(yù)測(cè)

    源碼鏈接:https://github.com/ultralytics/ultralytics yolov8和yolov5是同一作者,相比yolov5,yolov8的集成性更好了,更加面向用戶了 YOLO命令行界面(command line interface, CLI) 方便在各種任務(wù)和版本上訓(xùn)練、驗(yàn)證或推斷模型。CLI不需要定制或代碼,可以使用yolo命令從終端運(yùn)行所有任務(wù)。 如果

    2023年04月24日
    瀏覽(22)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包