国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【JetsonNano】onnxruntime-gpu 環(huán)境編譯和安裝,支持 Python 和 C++ 開發(fā)

這篇具有很好參考價值的文章主要介紹了【JetsonNano】onnxruntime-gpu 環(huán)境編譯和安裝,支持 Python 和 C++ 開發(fā)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1. 設(shè)備

centos7編譯onnxruntime-gpu,python,開發(fā)語言,人工智能,c++

2. 環(huán)境

sudo apt-get install protobuf-compiler libprotoc-dev
 
export PATH=/usr/local/cuda/bin:${PATH}
export CUDA_PATH=/usr/local/cuda
export cuDNN_PATH=/usr/lib/aarch64-linux-gnu
export CMAKE_ARGS="-DONNX_CUSTOM_PROTOC_EXECUTABLE=/usr/bin/protoc"

3.源碼

mkdir /code
cd /code
git clone --recursive https://github.com/Microsoft/onnxruntime.git 
# 從 tag v1.16.0 切換分支進行編譯
git checkout -b v1.16.0 v1.16.0

git submodule update --init --recursive --progress
cd /code/onnxruntime

4.編譯

# --parallel 2  使用 2 個 cpu 進行編譯,防止內(nèi)存和CPU性能不足導(dǎo)致編譯識別
./build.sh --config Release --update --build --parallel 2 --build_wheel \
--use_tensorrt --cuda_home /usr/local/cuda --cudnn_home /usr/lib/aarch64-linux-gnu \
--tensorrt_home /usr/lib/aarch64-linux-gnu

若編譯識別,內(nèi)存不足,可進行擴大交換內(nèi)存

https://labelnet.blog.csdn.net/article/details/136538479

編譯完成標(biāo)識

...
build complate!

5. 安裝

cd /build/Linux/Release
sudo make install

centos7編譯onnxruntime-gpu,python,開發(fā)語言,人工智能,c++

6.查看

/usr/lcoal 查看安裝

7.下載

(1) 整個 build 目錄,包含 build/Linux/Relase

https://download.csdn.net/download/LABLENET/88943160

(2) 僅 Python3.8 安裝文件,onnxruntime-gpu-1.16.0-cp38-cp38-linux-aarch64.whl

https://download.csdn.net/download/LABLENET/88943155

8. 靜態(tài)庫編譯安裝

1)編譯

添加 l --build_shared_lib

./build.sh --config Release --update --build --parallel --build_shared_lib --build_wheel \
--use_tensorrt --cuda_home /usr/local/cuda --cudnn_home /usr/lib/aarch64-linux-gnu \
--tensorrt_home /usr/lib/aarch64-linux-gnu

2)安裝

sudo cmake install

centos7編譯onnxruntime-gpu,python,開發(fā)語言,人工智能,c++

9. 靜態(tài)庫下載使用

C++, 見文件 https://download.csdn.net/download/LABLENET/88943411

centos7編譯onnxruntime-gpu,python,開發(fā)語言,人工智能,c++

10 C++ 開發(fā)

CMakeList.txt 中配置使用

...
# onnxruntime
find_package(onnxruntime REQUIRED)
message(onnxruntime_dir: ${onnxruntime_DIR})
target_link_libraries (
    ${MODULE_NAME} PUBLIC
    onnxruntime::onnxruntime
)

C++ 代碼

#include <onnxruntime_cxx_api.h>

int main()
{
    auto providers = Ort::GetAvailableProviders();
    cout << Ort::GetVersionString() << endl;
    for (auto provider : providers)
    {
        cout << provider << endl;
    }
}

centos7編譯onnxruntime-gpu,python,開發(fā)語言,人工智能,c++

11. Python 開發(fā)

安裝依賴包

pip3 install onnxruntime_gpu-1.16.0-cp38-cp38-linux_aarch64.whl   -i https://pypi.tuna.tsinghua.edu.cn/simple/

開發(fā)

import onnxruntime

print("OnnxRuntime Provider : ", onnxruntime.get_available_providers())

輸出文章來源地址http://www.zghlxwxcb.cn/news/detail-852238.html

OnnxRuntime Provider :  ['TensorrtExecutionProvider', 'CUDAExecutionProvider', 'CPUExecutionProvider']

到了這里,關(guān)于【JetsonNano】onnxruntime-gpu 環(huán)境編譯和安裝,支持 Python 和 C++ 開發(fā)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • onnxruntime推理時切換CPU/GPU以及修改onnx輸入輸出為動態(tài)

    前言 onnx模型作為中間模型,相較于pytorch直接推理,是有加速度效果的,且推理代碼簡單,不需要load各種網(wǎng)絡(luò)。最近某些項目因為顯存不夠,onnxruntime推理時切換CPU/GPU,實現(xiàn)某些模型在CPU上推理,某些在GPU上推理。 查了一些別人的文章發(fā)現(xiàn)很多人都說onnxruntime推理沒法像py

    2024年02月12日
    瀏覽(28)
  • Yolov7如期而至,奉上ONNXRuntime的推理部署流程(CPU/GPU)

    Yolov7如期而至,奉上ONNXRuntime的推理部署流程(CPU/GPU)

    一、V7效果真的的v587,識別率和速度都有了極大的提升,這里先放最新鮮的github鏈接: https://github.com/WongKinYiu/yolov7 二、v7的訓(xùn)練我這里就不做過多的贅述了,這里主要是進行講解怎么把.pt文件轉(zhuǎn)為onnx和后續(xù)的推理問題: ?2.1首先是pip的版本非常重要,博主親自測試了,發(fā)現(xiàn)

    2024年02月10日
    瀏覽(25)
  • YOLOv5在C++中通過Onnxruntime在window平臺上的cpu與gpu推理

    YOLOv5在C++中通過Onnxruntime在window平臺上的cpu與gpu推理

    本項目gitee鏈接:點擊跳轉(zhuǎn) 本項目資源鏈接:點擊跳轉(zhuǎn) 歡迎批評指正。 CPU:i5-9400F GPU:GTX1060 yolov5使用onnxruntime進行c++部署:跳轉(zhuǎn)鏈接 詳細介紹 Yolov5 轉(zhuǎn) ONNX模型 + 使用 ONNX Runtime 的 C++ 部署(包含官方文檔的介紹):跳轉(zhuǎn)鏈接 yolov5-v6.1-opencv-onnxrun:跳轉(zhuǎn)鏈接 【推理引擎】從源碼看

    2024年02月14日
    瀏覽(18)
  • 離線編譯 onnxruntime-with-tensortRT

    離線編譯 onnxruntime-with-tensortRT

    記錄為centos7的4090開發(fā)機離線編譯onnxruntime的過程,因為在離線的環(huán)境,所以踩了很多坑。 https://onnxruntime.ai/docs/execution-providers/TensorRT-ExecutionProvider.html 這里根據(jù)官網(wǎng)的推薦安裝1.15 版本的onnx 因為離線環(huán)境,所以很多都是要自己手動編譯安裝的 onnx 源碼 1.51 cmake 3.26.6 (本地環(huán)境

    2024年01月25日
    瀏覽(18)
  • 從頭安裝與使用一個docker GPU環(huán)境

    從頭安裝與使用一個docker GPU環(huán)境

    導(dǎo)入源倉庫的GPG key 將 Docker APT 軟件源添加到你的系統(tǒng) 安裝命令如下: 驗證安裝過程,查看安裝的docker 版本,如果返回docker 版本,證明安裝成功 在 Docker 中尋找專為深度學(xué)習(xí)和 GPU 計算準(zhǔn)備的基礎(chǔ)鏡像,通常您會使用 Docker Hub,這是 Docker 的官方鏡像倉庫,包含了大量的社區(qū)

    2024年02月02日
    瀏覽(66)
  • GPU機器docker環(huán)境離線安裝

    GPU機器docker環(huán)境離線安裝

    秋風(fēng)閣(https://focus-wind.com/) docker 二進制包下載位置 在無法聯(lián)網(wǎng)的環(huán)境中安裝軟件包,我們無法依賴于現(xiàn)成的包管理工具,只能通過一個一個的下載包的方式來進行軟件的下載安裝,但這樣操作難免會遇到依賴問題,復(fù)雜的依賴問題會嚴(yán)重的影響我們環(huán)境的下載。所以可以通過

    2024年02月16日
    瀏覽(18)
  • Windows環(huán)境下GPU版本pytorch安裝

    Windows環(huán)境下GPU版本pytorch安裝

    通過官網(wǎng)引導(dǎo)就可以完成安裝,或者通過下面網(wǎng)址復(fù)制conda安裝命令,安裝歷史版本 Previous PyTorch Versions | PyTorch ? 輸出: 參考: Windows環(huán)境下Gpu版本的Pytorch安裝_pytorch向下兼容嗎_曉碼bigdata的博客-CSDN博客

    2024年02月12日
    瀏覽(30)
  • win10下wsl2使用記錄(系統(tǒng)遷移到D盤、配置國內(nèi)源、安裝conda環(huán)境、配置pip源、安裝pytorch-gpu環(huán)境、安裝paddle-gpu環(huán)境)

    win10下wsl2使用記錄(系統(tǒng)遷移到D盤、配置國內(nèi)源、安裝conda環(huán)境、配置pip源、安裝pytorch-gpu環(huán)境、安裝paddle-gpu環(huán)境)

    安裝好后環(huán)境測試效果如下,支持命令nvidia-smi,不支持命令nvcc,usr/local目錄下沒有cuda文件夾。 系統(tǒng)遷移到非C盤 wsl安裝的系統(tǒng)默認(rèn)在c盤,為節(jié)省c盤空間進行遷移。 1、輸出 wsl -l 查看要遷移的系統(tǒng)名稱 2、執(zhí)行導(dǎo)出命令: wsl --export Ubuntu-20.04 ./Ubuntu-20.04.tar ,以下命令將系統(tǒng)

    2024年02月20日
    瀏覽(15)
  • 基于全新電腦環(huán)境安裝pytorch的GPU版本

    基于全新電腦環(huán)境安裝pytorch的GPU版本

    距離第一次安裝深度學(xué)習(xí)的GPU環(huán)境已經(jīng)過去了4年多(當(dāng)時TensorFlow特別麻煩),現(xiàn)在發(fā)現(xiàn)安裝pytorch的GPU版本還是很簡單方便的,流程記錄如下。 Free Download | Anaconda 直接下載最新版本到電腦里,并安裝。 win+R 然后輸入cmd調(diào)出命令窗,輸入 nvidia-smi 通過搜索找到”設(shè)備管理器”

    2024年02月10日
    瀏覽(37)
  • pytorch的深度學(xué)習(xí)環(huán)境安裝配置(GPU版)

    pytorch的深度學(xué)習(xí)環(huán)境安裝配置(GPU版)

    目錄 一些概念理解 ?0.anaconda配置國內(nèi)鏡像源 ?1.anaconda建立一個新的虛擬環(huán)境 ?2. 更新顯卡驅(qū)動CUDA Driver ?3. 安裝pytorch 3.1 法(一):利用pip安裝Pytorch 3.1.1 法(一)在線pip安裝 ?3.1.2 法(二)本地pip安裝 3.2 法(一):利用conda安裝Pytorch 3.3 驗證pytorch是否安裝成功 ?4. Pychar

    2023年04月15日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包