国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

使用onnxruntime-gpu 模型推理

這篇具有很好參考價值的文章主要介紹了使用onnxruntime-gpu 模型推理。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1.安裝onnxruntime-gpu

新版的onnxruntime-gpu 即支持gpu的推理,也支持cpu的推理。

卸載舊的1.7.1 cpu版本,安裝新的gpu版本:

pip uninstall onnxruntime
pip install onnxruntime-gpu

檢查是否安裝成功:

>>> import onnxruntime
>>> onnxruntime.__version__
'1.10.0'
>>> onnxruntime.get_device()
'GPU'
>>> onnxruntime.get_available_providers()
['TensorrtExecutionProvider', 'CUDAExecutionProvider', 'CPUExecutionProvider']

2.修改推理代碼

在推理代碼上增加 providers參數(shù),選擇推理的框架??醋约褐С帜膫€就選擇自己支持的就可以了。

session = onnxruntime.InferenceSession('yolov5s.onnx', None)
# 改為:
session = onnxruntime.InferenceSession('yolov5s.onnx', 
        providers=['TensorrtExecutionProvider', 'CUDAExecutionProvider', 'CPUExecutionProvider'])

如果運行推理代碼出現(xiàn) Tensorrt, CUDA都無法推理,如下所示,則是自己的?ONNX Runtime,?TensorRT,?CUDA 版本沒對應(yīng)正確 。

2022-08-09 15:38:31.386436528 [W:onnxruntime:Default, onnxruntime_pybind_state.cc:509 CreateExecutionProviderInstance] Failed to create TensorrtExecutionProvider. Please reference https://onnxruntime.ai/docs/execution-providers/TensorRT-ExecutionProvider.html#requirements to ensure all dependencies are met.

對應(yīng)版本如下 :

onnxruntime gpu,AI模型部署,AI模型部署,onnxruntime-gpu,yolov5 onnx推理文章來源地址http://www.zghlxwxcb.cn/news/detail-557234.html

到了這里,關(guān)于使用onnxruntime-gpu 模型推理的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【模型部署 01】C++實現(xiàn)GoogLeNet在OpenCV DNN、ONNXRuntime、TensorRT、OpenVINO上的推理部署

    【模型部署 01】C++實現(xiàn)GoogLeNet在OpenCV DNN、ONNXRuntime、TensorRT、OpenVINO上的推理部署

    深度學(xué)習(xí)領(lǐng)域常用的基于CPU/GPU的推理方式有OpenCV DNN、ONNXRuntime、TensorRT以及OpenVINO。這幾種方式的推理過程可以統(tǒng)一用下圖來概述。整體可分為模型初始化部分和推理部分,后者包括步驟2-5。 以GoogLeNet模型為例,測得幾種推理方式在推理部分的耗時如下: 結(jié)論: GPU加速首選

    2024年02月06日
    瀏覽(27)
  • 【模型部署 01】C++實現(xiàn)分類模型(以GoogLeNet為例)在OpenCV DNN、ONNXRuntime、TensorRT、OpenVINO上的推理部署

    【模型部署 01】C++實現(xiàn)分類模型(以GoogLeNet為例)在OpenCV DNN、ONNXRuntime、TensorRT、OpenVINO上的推理部署

    深度學(xué)習(xí)領(lǐng)域常用的基于CPU/GPU的推理方式有OpenCV DNN、ONNXRuntime、TensorRT以及OpenVINO。這幾種方式的推理過程可以統(tǒng)一用下圖來概述。整體可分為模型初始化部分和推理部分,后者包括步驟2-5。 以GoogLeNet模型為例,測得幾種推理方式在推理部分的耗時如下: 結(jié)論: GPU加速首選

    2024年02月06日
    瀏覽(26)
  • VS c++ onnxruntime 環(huán)境配置、onnx教程、部署推理模型、sklearn pkl模型轉(zhuǎn)onnx、問題匯總

    VS c++ onnxruntime 環(huán)境配置、onnx教程、部署推理模型、sklearn pkl模型轉(zhuǎn)onnx、問題匯總

    目錄 一、初步認(rèn)識ONNX 二、pkl轉(zhuǎn)ONNX+可視化模型 三、ONNX Runtime運行時 3.1 相關(guān)介紹(了解此運行時): 3.2 VS、c++部署onnxruntime 3.3 頭文件引用的一些問題 四、問題匯總: 1. 類沒有成員 2. 版本兼容問題 3. 3.“GetInputName“: 不是 “Ort::Session“ 的成員 官網(wǎng): ONNX Runtime | Home GitHub

    2024年04月09日
    瀏覽(33)
  • C++使用onnxruntime/opencv對onnx模型進(jìn)行推理(附代碼)

    C++使用onnxruntime/opencv對onnx模型進(jìn)行推理(附代碼)

    結(jié)果: current image classification : French bulldog, possible : 16.17 對兩張圖片同時進(jìn)行推理 current image classification : French bulldog, possible : 16.17 current image class ification : hare, possible : 8.47 https://download.csdn.net/download/qq_44747572/87810859 https://blog.csdn.net/qq_44747572/article/details/131631153

    2024年02月05日
    瀏覽(28)
  • onnxruntime推理時切換CPU/GPU以及修改onnx輸入輸出為動態(tài)

    前言 onnx模型作為中間模型,相較于pytorch直接推理,是有加速度效果的,且推理代碼簡單,不需要load各種網(wǎng)絡(luò)。最近某些項目因為顯存不夠,onnxruntime推理時切換CPU/GPU,實現(xiàn)某些模型在CPU上推理,某些在GPU上推理。 查了一些別人的文章發(fā)現(xiàn)很多人都說onnxruntime推理沒法像py

    2024年02月12日
    瀏覽(28)
  • AI模型部署 | onnxruntime部署YOLOv8分割模型詳細(xì)教程

    AI模型部署 | onnxruntime部署YOLOv8分割模型詳細(xì)教程

    本文首發(fā)于公眾號【DeepDriving】,歡迎關(guān)注。 0. 引言 我之前寫的文章《基于YOLOv8分割模型實現(xiàn)垃圾識別》介紹了如何使用 YOLOv8 分割模型來實現(xiàn)垃圾識別,主要是介紹如何用自定義的數(shù)據(jù)集來訓(xùn)練 YOLOv8 分割模型。那么訓(xùn)練好的模型該如何部署呢? YOLOv8 分割模型相比檢測模型

    2024年04月24日
    瀏覽(46)
  • TRT4-trt-integrate - 3 使用onnxruntime進(jìn)行onnx的模型推理過程

    TRT4-trt-integrate - 3 使用onnxruntime進(jìn)行onnx的模型推理過程

    onnx是microsoft開發(fā)的一個中間格式,而onnxruntime簡稱ort是microsoft為onnx開發(fā)的推理引擎。 允許使用onnx作為輸入進(jìn)行直接推理得到結(jié)果。 建立一個InferenceSession,塞進(jìn)去的是onnx的路徑,實際運算的后端選用的是CPU 也可以選用cuda等等 之后就是預(yù)處理 session.run就是運行的inference過程

    2024年02月15日
    瀏覽(26)
  • YOLOv5在C++中通過Onnxruntime在window平臺上的cpu與gpu推理

    YOLOv5在C++中通過Onnxruntime在window平臺上的cpu與gpu推理

    本項目gitee鏈接:點擊跳轉(zhuǎn) 本項目資源鏈接:點擊跳轉(zhuǎn) 歡迎批評指正。 CPU:i5-9400F GPU:GTX1060 yolov5使用onnxruntime進(jìn)行c++部署:跳轉(zhuǎn)鏈接 詳細(xì)介紹 Yolov5 轉(zhuǎn) ONNX模型 + 使用 ONNX Runtime 的 C++ 部署(包含官方文檔的介紹):跳轉(zhuǎn)鏈接 yolov5-v6.1-opencv-onnxrun:跳轉(zhuǎn)鏈接 【推理引擎】從源碼看

    2024年02月14日
    瀏覽(18)
  • PyTorch多GPU訓(xùn)練模型——使用單GPU或CPU進(jìn)行推理的方法

    PyTorch多GPU訓(xùn)練模型——使用單GPU或CPU進(jìn)行推理的方法

    PyTorch提供了非常便捷的多GPU網(wǎng)絡(luò)訓(xùn)練方法: DataParallel 和 DistributedDataParallel 。在涉及到一些復(fù)雜模型時,基本都是采用多個GPU并行訓(xùn)練并保存模型。但在推理階段往往只采用單個GPU或者CPU運行。這時怎么將多GPU環(huán)境下保存的模型權(quán)重加載到單GPU/CPU運行環(huán)境下的模型上成了一

    2024年02月09日
    瀏覽(33)
  • 使用c++onnxruntime部署yolov5模型并使用CUDA加速(超詳細(xì))

    使用c++onnxruntime部署yolov5模型并使用CUDA加速(超詳細(xì))

    前言 1.Yolo簡介 2.onnxruntime簡介 3.Yolov5模型訓(xùn)練及轉(zhuǎn)換 4.利用cmake向C++部署該onnx模型 總結(jié) 接到一個項目,需要用c++和單片機通信,還要使用yolo模型來做到目標(biāo)檢測的任務(wù),但目前網(wǎng)上的各種博客并沒有完整的流程教程,讓我在部署過程費了不少勁,也踩了不少坑(甚至一度把

    2024年02月02日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包