国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

pytorch導(dǎo)出為onnx,使用onnxruntime進(jìn)行推理

這篇具有很好參考價值的文章主要介紹了pytorch導(dǎo)出為onnx,使用onnxruntime進(jìn)行推理。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

import torch
import torch.nn.init as init
import io
import numpy as np
from torch import nn
import torch.utils.model_zoo as model_zoo
import torch.onnx

class SuperResolutionNet(nn.Module):
    def __init__(self, upscale_factor, inplace=False):
        super(SuperResolutionNet, self).__init__()

        self.relu = nn.ReLU(inplace=inplace)
        self.conv1 = nn.Conv2d(1, 64, (5, 5), (1, 1), (2, 2))
        self.conv2 = nn.Conv2d(64, 64, (3, 3), (1, 1), (1, 1))
        self.conv3 = nn.Conv2d(64, 32, (3, 3), (1, 1), (1, 1))
        self.conv4 = nn.Conv2d(32, upscale_factor ** 2, (3, 3), (1, 1), (1, 1))
        self.pixel_shuffle = nn.PixelShuffle(upscale_factor)

        self._initialize_weights()

    def forward(self, x):
        x = self.relu(self.conv1(x))
        x = self.relu(self.conv2(x))
        x = self.relu(self.conv3(x))
        x = self.pixel_shuffle(self.conv4(x))
        return x

    def 

文章來源地址http://www.zghlxwxcb.cn/news/detail-836558.html

到了這里,關(guān)于pytorch導(dǎo)出為onnx,使用onnxruntime進(jìn)行推理的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • ONNX:C++通過onnxruntime使用.onnx模型進(jìn)行前向計算【下載的onnxruntime是編譯好的庫文件,可直接使用】

    ONNX:C++通過onnxruntime使用.onnx模型進(jìn)行前向計算【下載的onnxruntime是編譯好的庫文件,可直接使用】

    微軟聯(lián)合Facebook等在2017年搞了個深度學(xué)習(xí)以及機器學(xué)習(xí)模型的格式標(biāo)準(zhǔn)–ONNX,旨在將所有模型格式統(tǒng)一為一致,更方便地實現(xiàn)模型部署。現(xiàn)在大多數(shù)的深度學(xué)習(xí)框架都支持ONNX模型轉(zhuǎn)出并提供相應(yīng)的導(dǎo)出接口。 ONNXRuntime(Open Neural Network Exchange)是微軟推出的一款針對ONNX模型格式

    2024年02月15日
    瀏覽(18)
  • onnxruntime推理時切換CPU/GPU以及修改onnx輸入輸出為動態(tài)

    前言 onnx模型作為中間模型,相較于pytorch直接推理,是有加速度效果的,且推理代碼簡單,不需要load各種網(wǎng)絡(luò)。最近某些項目因為顯存不夠,onnxruntime推理時切換CPU/GPU,實現(xiàn)某些模型在CPU上推理,某些在GPU上推理。 查了一些別人的文章發(fā)現(xiàn)很多人都說onnxruntime推理沒法像py

    2024年02月12日
    瀏覽(28)
  • VS c++ onnxruntime 環(huán)境配置、onnx教程、部署推理模型、sklearn pkl模型轉(zhuǎn)onnx、問題匯總

    VS c++ onnxruntime 環(huán)境配置、onnx教程、部署推理模型、sklearn pkl模型轉(zhuǎn)onnx、問題匯總

    目錄 一、初步認(rèn)識ONNX 二、pkl轉(zhuǎn)ONNX+可視化模型 三、ONNX Runtime運行時 3.1 相關(guān)介紹(了解此運行時): 3.2 VS、c++部署onnxruntime 3.3 頭文件引用的一些問題 四、問題匯總: 1. 類沒有成員 2. 版本兼容問題 3. 3.“GetInputName“: 不是 “Ort::Session“ 的成員 官網(wǎng): ONNX Runtime | Home GitHub

    2024年04月09日
    瀏覽(33)
  • python使用onnx模型進(jìn)行推理

    我們可以看到基于YoloV7訓(xùn)練的cfg有兩種yaml文件,一個是training文件夾,一個是deploy文件夾,這兩種文件夾有啥不一樣呢??? 大家可以看下下面別人的issuse,,記住這個很關(guān)鍵,就是你選擇哪個yaml訓(xùn)練對你后面導(dǎo)出的onnx是很關(guān)鍵的,后面我們會說到。 1、training中的yaml文件

    2024年02月12日
    瀏覽(17)
  • OpenMMlab導(dǎo)出mobilenet-v2的onnx模型并推理

    使用mmpretrain導(dǎo)出mobilenet-v2的onnx模型: 安裝有mmdeploy的話可以通過如下方法導(dǎo)出: 通過onnxruntime進(jìn)行推理: 使用mmdeploy推理: 或者 這里通過trtexec轉(zhuǎn)換onnx文件,LZ的版本是TensorRT-8.2.1.8。 使用mmdeploy推理: 或者

    2024年02月05日
    瀏覽(27)
  • onnx模型轉(zhuǎn)engine并進(jìn)行推理全過程解析

    onnx模型轉(zhuǎn)engine并進(jìn)行推理全過程解析

    深度學(xué)習(xí)模型在訓(xùn)練好以后,下一步就是部署到不同的設(shè)備進(jìn)行測試,不同設(shè)備之間的轉(zhuǎn)換一般可以通過中間件ONNX進(jìn)行轉(zhuǎn)換,以達(dá)到不同平臺的通用。本文以模型轉(zhuǎn)為ONNX為起點,分析介紹ONNX轉(zhuǎn)為TensorRT Engine并進(jìn)行推理的整個流程鏈路。 ONNX序列化為TRT模型的整個流程可以用

    2024年02月06日
    瀏覽(103)
  • 【深度學(xué)習(xí)】SDXL tensorRT 推理,Stable Diffusion 轉(zhuǎn)onnx,轉(zhuǎn)TensorRT

    【深度學(xué)習(xí)】SDXL tensorRT 推理,Stable Diffusion 轉(zhuǎn)onnx,轉(zhuǎn)TensorRT

    juggernautXL_version6Rundiffusion.safetensors文件是pth pytroch文件,需要先轉(zhuǎn)為diffusers 的文件結(jié)構(gòu)。 FP16在后面不好操作,所以最好先是FP32: 有了diffusers 的文件結(jié)構(gòu),就可以轉(zhuǎn)onnx文件。 項目:https://huggingface.co/docs/diffusers/optimization/onnx stabilityai/stable-diffusion-xl-1.0-tensorrt 項目:https://hug

    2024年01月19日
    瀏覽(16)
  • pytorch導(dǎo)出onnx時遇到不支持的算子怎么解決

    在使用pytorch模型訓(xùn)練完成之后,我們現(xiàn)在使用的比較多的一種方法是將pytorch模型轉(zhuǎn)成onnx格式的模型中間文件,然后再根據(jù)使用的硬件來生成具體硬件使用的深度學(xué)習(xí)模型,比如TensorRT。 在從pytorch模型轉(zhuǎn)為onnx時,我們可能會遇到部分算子無法轉(zhuǎn)換的問題,本篇注意記錄下解

    2024年02月02日
    瀏覽(22)
  • Pytorch復(fù)習(xí)筆記--導(dǎo)出Onnx模型為動態(tài)輸入和靜態(tài)輸入

    Pytorch復(fù)習(xí)筆記--導(dǎo)出Onnx模型為動態(tài)輸入和靜態(tài)輸入

    目錄 1--動態(tài)輸入和靜態(tài)輸入 2--Pytorch API 3--完整代碼演示 4--模型可視化 5--測試動態(tài)導(dǎo)出的Onnx模型 ? ? ? ? 當(dāng)使用 Pytorch 將網(wǎng)絡(luò)導(dǎo)出為 Onnx 模型格式時,可以導(dǎo)出為動態(tài)輸入和靜態(tài)輸入兩種方式。動態(tài)輸入即模型輸入數(shù)據(jù)的部分維度是動態(tài)的,可以由用戶在使用模型時自主設(shè)

    2024年01月20日
    瀏覽(24)
  • pytorch自定義算子并導(dǎo)出onnx計算圖詳細(xì)代碼教程

    解決: ? ? # enable_onnx_checker=False 更改為: ? ? operator_export_type=torch.onnx.OperatorExportTypes.ONNX_ATEN_FALLBACK pytorch自定義算子并導(dǎo)出onnx計算圖詳細(xì)代碼教程_operatorexporttypes_蛇皮小娃娃的博客-CSDN博客 ?

    2024年02月10日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包