国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【環(huán)境搭建:onnx模型部署】onnxruntime-gpu安裝與測試(python)

這篇具有很好參考價值的文章主要介紹了【環(huán)境搭建:onnx模型部署】onnxruntime-gpu安裝與測試(python)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1. onnxruntime 安裝

onnx 模型在 CPU 上進(jìn)行推理,在conda環(huán)境中直接使用pip安裝即可

pip install onnxruntime

2. onnxruntime-gpu 安裝

想要 onnx 模型在 GPU 上加速推理,需要安裝 onnxruntime-gpu 。有兩種思路:

  • 依賴于 本地主機 上已安裝的 cuda 和 cudnn 版本
  • 不依賴于 本地主機 上已安裝的 cuda 和 cudnn 版本

要注意:onnxruntime-gpu, cuda, cudnn三者的版本要對應(yīng),否則會報錯 或 不能使用GPU推理。
onnxruntime-gpu, cuda, cudnn版本對應(yīng)關(guān)系詳見: 官網(wǎng)

2.1 方法一:onnxruntime-gpu依賴于本地主機上cuda和cudnn

  • 查看已安裝 cuda 和 cudnn 版本

    # cuda version
    cat /usr/local/cuda/version.txt
    
    # cudnn version
    cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2
    
  • 根據(jù) onnxruntime-gpu, cuda, cudnn 三者對應(yīng)關(guān)系,安裝相應(yīng)的 onnxruntime-gpu 即可。

    ## cuda==10.2
    ## cudnn==8.0.3
    ## onnxruntime-gpu==1.5.0 or 1.6.0
    pip install onnxruntime-gpu==1.6.0
    

2.2 方法二:onnxruntime-gpu不依賴于本地主機上cuda和cudnn

在 conda 環(huán)境中安裝,不依賴于 本地主機 上已安裝的 cuda 和 cudnn 版本,靈活方便。這里,先說一下已經(jīng)測試通過的組合:

  • python3.6, cudatoolkit10.2.89, cudnn7.6.5, onnxruntime-gpu1.4.0
  • python3.8, cudatoolkit11.3.1, cudnn8.2.1, onnxruntime-gpu1.14.1

如果需要其他的版本, 可以根據(jù) onnxruntime-gpu, cuda, cudnn 三者對應(yīng)關(guān)系自行組合測試。

下面,從創(chuàng)建conda環(huán)境,到實現(xiàn)在GPU上加速onnx模型推理進(jìn)行舉例。

2.2.1 舉例:創(chuàng)建onnxruntime-gpu==1.14.1的conda環(huán)境

## 創(chuàng)建conda環(huán)境
conda create -n torch python=3.8

## 激活conda環(huán)境
source activate torch
conda install pytorch==1.10.0 torchvision==0.11.0 torchaudio==0.10.0 cudatoolkit=11.3 -c pytorch -c conda-forge
conda install cudnn==8.2.1
pip install onnxruntime-gpu==1.14.1
## pip install ... (根據(jù)需求,安裝其他的包)

2.2.2 舉例:實例測試

  • 打開終端,輸入 watch -n 0.1 nvidia-smi, 實時查看gpu使用情況

    【環(huán)境搭建:onnx模型部署】onnxruntime-gpu安裝與測試(python)

  • 代碼測試,摘取API文章來源地址http://www.zghlxwxcb.cn/news/detail-468755.html

      import numpy as np
      import torch
      import onnxruntime
      
      MODEL_FILE = '.model.onnx'
      DEVICE_NAME = 'cuda' if torch.cuda.is_available() else 'cpu'
      DEVICE_INDEX = 0
      DEVICE=f'{DEVICE_NAME}:{DEVICE_INDEX}'
      
      # A simple model to calculate addition of two tensors
      def model():
          class Model(torch.nn.Module):
              def __init__(self):
                  super(Model, self).__init__()
      
              def forward(self, x, y):
                  return x.add(y)
      
          return Model()
      
      # Create an instance of the model and export it to ONNX graph format
      def create_model(type: torch.dtype = torch.float32):
          sample_x = torch.ones(3, dtype=type)
          sample_y = torch.zeros(3, dtype=type)
          torch.onnx.export(model(), (sample_x, sample_y), MODEL_FILE,
                            input_names=["x", "y"], output_names=["z"], 
                            dynamic_axes={"x":{0 : "array_length_x"}, "y":{0: "array_length_y"}})
       
      # Create an ONNX Runtime session with the provided model
      def create_session(model: str) -> onnxruntime.InferenceSession:
          providers = ['CPUExecutionProvider']
          if torch.cuda.is_available():
              providers.insert(0, 'CUDAExecutionProvider')
          return onnxruntime.InferenceSession(model, providers=providers)
      
      # Run the model on CPU consuming and producing numpy arrays 
      def run(x: np.array, y: np.array) -> np.array:
          session = create_session(MODEL_FILE)
          z = session.run(["z"], {"x": x, "y": y})
          return z[0]   
    
      # Run the model on device consuming and producing ORTValues
      def run_with_data_on_device(x: np.array, y: np.array) -> onnxruntime.OrtValue:
          session = create_session(MODEL_FILE)
      
          x_ortvalue = onnxruntime.OrtValue.ortvalue_from_numpy(x, DEVICE_NAME, DEVICE_INDEX)
          y_ortvalue = onnxruntime.OrtValue.ortvalue_from_numpy(y, DEVICE_NAME, DEVICE_INDEX)
      
          io_binding = session.io_binding()
          io_binding.bind_input(name='x', device_type=x_ortvalue.device_name(), device_id=0, element_type=x.dtype, shape=x_ortvalue.shape(), buffer_ptr=x_ortvalue.data_ptr())
          io_binding.bind_input(name='y', device_type=y_ortvalue.device_name(), device_id=0, element_type=y.dtype, shape=y_ortvalue.shape(), buffer_ptr=y_ortvalue.data_ptr())
          io_binding.bind_output(name='z', device_type=DEVICE_NAME, device_id=DEVICE_INDEX, element_type=x.dtype, shape=x_ortvalue.shape())
          session.run_with_iobinding(io_binding)
      
          z = io_binding.get_outputs()
      
          return z[0]
    
      def main():
          create_model()
          # print(run(x=np.float32([1.0, 2.0, 3.0]),y=np.float32([4.0, 5.0, 6.0])))
          
          t1 = time.time()
          print(run(x=np.float32([1.0, 2.0, 3.0]),y=np.float32([4.0, 5.0, 6.0])))
          # [array([5., 7., 9.], dtype=float32)]t1 = time.time()
          t2 = time.time()
      
          print(run_with_data_on_device(x=np.float32([1.0, 2.0, 3.0, 4.0, 5.0]), y=np.float32([1.0, 2.0, 3.0, 4.0, 5.0])).numpy())
          # [ 2.  4.  6.  8. 10.]
          t3 = time.time()
          
          print(f'Done. ({(1E3 * (t2 - t1)):.1f}ms) Inference.')
          print(f'Done. ({(1E3 * (t3 - t2)):.1f}ms) Inference.')
      
      if __name__ == "__main__":
          main()   
    

到了這里,關(guān)于【環(huán)境搭建:onnx模型部署】onnxruntime-gpu安裝與測試(python)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • onnxruntime推理時切換CPU/GPU以及修改onnx輸入輸出為動態(tài)

    前言 onnx模型作為中間模型,相較于pytorch直接推理,是有加速度效果的,且推理代碼簡單,不需要load各種網(wǎng)絡(luò)。最近某些項目因為顯存不夠,onnxruntime推理時切換CPU/GPU,實現(xiàn)某些模型在CPU上推理,某些在GPU上推理。 查了一些別人的文章發(fā)現(xiàn)很多人都說onnxruntime推理沒法像py

    2024年02月12日
    瀏覽(28)
  • ONNX:C++通過onnxruntime使用.onnx模型進(jìn)行前向計算【下載的onnxruntime是編譯好的庫文件,可直接使用】

    ONNX:C++通過onnxruntime使用.onnx模型進(jìn)行前向計算【下載的onnxruntime是編譯好的庫文件,可直接使用】

    微軟聯(lián)合Facebook等在2017年搞了個深度學(xué)習(xí)以及機器學(xué)習(xí)模型的格式標(biāo)準(zhǔn)–ONNX,旨在將所有模型格式統(tǒng)一為一致,更方便地實現(xiàn)模型部署?,F(xiàn)在大多數(shù)的深度學(xué)習(xí)框架都支持ONNX模型轉(zhuǎn)出并提供相應(yīng)的導(dǎo)出接口。 ONNXRuntime(Open Neural Network Exchange)是微軟推出的一款針對ONNX模型格式

    2024年02月15日
    瀏覽(18)
  • C++使用onnxruntime/opencv對onnx模型進(jìn)行推理(附代碼)

    C++使用onnxruntime/opencv對onnx模型進(jìn)行推理(附代碼)

    結(jié)果: current image classification : French bulldog, possible : 16.17 對兩張圖片同時進(jìn)行推理 current image classification : French bulldog, possible : 16.17 current image class ification : hare, possible : 8.47 https://download.csdn.net/download/qq_44747572/87810859 https://blog.csdn.net/qq_44747572/article/details/131631153

    2024年02月05日
    瀏覽(28)
  • Android+OnnxRuntime+Opencv+Onnx模型操作圖片擦除多余內(nèi)容

    今年來AI的發(fā)展非常迅速,在工業(yè)、醫(yī)療等等行業(yè)逐漸出現(xiàn)相應(yīng)的解決方案,AI也逐漸成為各行業(yè)基礎(chǔ)設(shè)施建設(shè)重要的一環(huán),未來發(fā)展的大趨勢,不過這也需要一個漫長的過程,需要很多技術(shù)型人才加入其中,除了工業(yè)設(shè)施的基礎(chǔ)建設(shè),在娛樂方向也有很多有趣的能力,不如圖

    2024年04月13日
    瀏覽(40)
  • Ubuntu環(huán)境下C++使用onnxruntime和Opencv進(jìn)行YOLOv8模型部署

    Ubuntu環(huán)境下C++使用onnxruntime和Opencv進(jìn)行YOLOv8模型部署

    目錄 環(huán)境配置 系統(tǒng)環(huán)境 項目文件路徑? 文件環(huán)境 ?config.txt ?CMakeLists.txt type.names ?讀取config.txt配置文件 修改圖片尺寸格式 讀取缺陷標(biāo)志文件 生成缺陷隨機顏色標(biāo)識 模型推理 推理結(jié)果獲取 缺陷信息還原并顯示 總代碼 Ubuntu18.04 onnxruntime-linux-x64 1.12.1:https://github.com/microsof

    2024年01月17日
    瀏覽(23)
  • TRT4-trt-integrate - 3 使用onnxruntime進(jìn)行onnx的模型推理過程

    TRT4-trt-integrate - 3 使用onnxruntime進(jìn)行onnx的模型推理過程

    onnx是microsoft開發(fā)的一個中間格式,而onnxruntime簡稱ort是microsoft為onnx開發(fā)的推理引擎。 允許使用onnx作為輸入進(jìn)行直接推理得到結(jié)果。 建立一個InferenceSession,塞進(jìn)去的是onnx的路徑,實際運算的后端選用的是CPU 也可以選用cuda等等 之后就是預(yù)處理 session.run就是運行的inference過程

    2024年02月15日
    瀏覽(26)
  • Yolov7如期而至,奉上ONNXRuntime的推理部署流程(CPU/GPU)

    Yolov7如期而至,奉上ONNXRuntime的推理部署流程(CPU/GPU)

    一、V7效果真的的v587,識別率和速度都有了極大的提升,這里先放最新鮮的github鏈接: https://github.com/WongKinYiu/yolov7 二、v7的訓(xùn)練我這里就不做過多的贅述了,這里主要是進(jìn)行講解怎么把.pt文件轉(zhuǎn)為onnx和后續(xù)的推理問題: ?2.1首先是pip的版本非常重要,博主親自測試了,發(fā)現(xiàn)

    2024年02月10日
    瀏覽(25)
  • 【深度學(xué)習(xí)】【Opencv】【GPU】python/C++調(diào)用onnx模型【基礎(chǔ)】

    【深度學(xué)習(xí)】【Opencv】【GPU】python/C++調(diào)用onnx模型【基礎(chǔ)】

    提示:博主取舍了很多大佬的博文并親測有效,分享筆記邀大家共同學(xué)習(xí)討論 OpenCV是一個基于BSD許可發(fā)行的跨平臺計算機視覺和機器學(xué)習(xí)軟件庫(開源),可以運行在Linux、Windows、Android和Mac OS操作系統(tǒng)上??梢詫ytorch中訓(xùn)練好的模型使用ONNX導(dǎo)出,再使用opencv中的dnn模塊直接進(jìn)行

    2024年02月04日
    瀏覽(24)
  • AI模型部署 | onnxruntime部署YOLOv8分割模型詳細(xì)教程

    AI模型部署 | onnxruntime部署YOLOv8分割模型詳細(xì)教程

    本文首發(fā)于公眾號【DeepDriving】,歡迎關(guān)注。 0. 引言 我之前寫的文章《基于YOLOv8分割模型實現(xiàn)垃圾識別》介紹了如何使用 YOLOv8 分割模型來實現(xiàn)垃圾識別,主要是介紹如何用自定義的數(shù)據(jù)集來訓(xùn)練 YOLOv8 分割模型。那么訓(xùn)練好的模型該如何部署呢? YOLOv8 分割模型相比檢測模型

    2024年04月24日
    瀏覽(46)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包