国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

FPGA上利用Vitis AI部署resnet50 TensorFlow神經(jīng)網(wǎng)絡(luò)模型

這篇具有很好參考價值的文章主要介紹了FPGA上利用Vitis AI部署resnet50 TensorFlow神經(jīng)網(wǎng)絡(luò)模型。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

FPGA上利用Vitis AI部署resnet50 TensorFlow神經(jīng)網(wǎng)絡(luò)模型

參考Xilinx官方教程快速入門 ? Vitis AI 用戶指南 (UG1414)
克隆 Vitis AI 存儲庫以獲取示例、參考代碼和腳本(連接github失敗可能需要科學(xué)上網(wǎng))。

[Host]$ git clone https://github.com/Xilinx/Vitis-AI 
[Host]$ cd Vitis-AI

安裝Docker如何在 Ubuntu 20.04 上安裝和使用 Docker
安裝完docker后,下載最新Vitis AI Docker,

Host]$ docker pull xilinx/vitis-ai-<pytorch/tensorflow/tensorflow2>-cpu:latest

將官方的指令docker pull xilinx/vitis-ai-<pytorch/tensorflow/tensorflow2>-cpu:latest改為docker pull xilinx/vitis-ai-tensorflow2-cpu:latest,從tensorflow,pytorch,tensorflow2中三選一。遇到問題permission denied如下,
將神經(jīng)網(wǎng)絡(luò)部署到fpga上,人工智能,fpga開發(fā),tensorflow,ai
將當(dāng)前用戶添加到用戶組,解決docker權(quán)限問題,運行的命令如下:

sudo groupadd docker               #添加用戶組
sudo gpasswd -a username docker    #將當(dāng)前用戶添加至用戶組,username寫自己的用戶名
newgrp docker                      #更新用戶組

使用git checkout v3.0 切換到3.0版本
運行以下命令安裝交叉編譯系統(tǒng)環(huán)境

[Host]$ ./host_cross_compiler_setup.sh

如果提示host_cross_compiler_setup.sh找不到命令,需要使用chmod命令修改文件權(quán)限,使文件可執(zhí)行
將神經(jīng)網(wǎng)絡(luò)部署到fpga上,人工智能,fpga開發(fā),tensorflow,ai

安裝完交叉編譯鏈后,有如下提示:

Please run the following command to enable Cross Compiler
    source /root/petalinux_sdk_2022.2/environment-setup-cortexa72-cortexa53-xilinx-linux
If you run the above command failed, run the following commands to enable Cross Compiler
    unset LD_LIBRARY_PATH
    source /root/petalinux_sdk_2022.2/environment-setup-cortexa72-cortexa53-xilinx-linux

下載并設(shè)置開發(fā)板鏡像 Design License Agreement (XEF) (xilinx.com)
使用Etcher將鏡像文件燒寫到SD卡上,將含鏡像的SD卡插入目標(biāo)開發(fā)板,通電并使用串行端口啟動開發(fā)板以在系統(tǒng)上進行操作,使用串行端口來設(shè)置開發(fā)板的IP信息(ifconfig)。

下載tensorflow resnet50 模型

[Host]$ cd Vitis-AI
[Host]$ wget https://www.xilinx.com/bin/public/openDownload?filename=tf_resnetv1_50_imagenet_224_224_6.97G_3.0.zip -O tf_resnetv1_50_imagenet_224_224_6.97G_.0.zip
[Host]$ unzip tf_resnetv1_50_imagenet_224_224_6.97G_3.0.zip

量化模型

量化模型時 ,從 Imagenet_calib.tar.gz下載數(shù)據(jù)集,并復(fù)制到 Vitis-AI 文件夾中

啟動 Docker 鏡像./docker_run.sh xilinx/vitis-ai-tensorflow-cpu:latest

在 tf_resnetv1_50_imagenet_224_224_6.97G_3.0/code/quantize/config.ini 中,將 CALIB_BATCH_SIZE 設(shè)置為 5。然后運行

[Docker]$ conda activate vitis-ai-tensorflow
[Docker]$ tar -xzvf Imagenet_calib.tar.gz -C tf_resnetv1_50_imagenet_224_224_6.97G_3.0/data
[Docker]$ cd tf_resnetv1_50_imagenet_224_224_6.97G_3.0/code/quantize
[Docker]$ bash quantize.sh

量化需要1個小時45分鐘, 運行 quantize.sh 后,已量化的模型包含在 tf_resnetv1_50_imagenet_224_224_6.97G_3.0/quantized 中

編譯模型

vai_c_tensorflow -f ./quantized/quantized_baseline_6.96B_919.pb -a /opt/vitis_ai/compiler/arch/DPUCZDX8G/KV260/arch.json -o ./compiled -n resnet50_tf

將神經(jīng)網(wǎng)絡(luò)部署到fpga上,人工智能,fpga開發(fā),tensorflow,ai

修改ipv4的網(wǎng)絡(luò)配置,輸入命令sudo vim /etc/network/interfaces,編輯文件

將神經(jīng)網(wǎng)絡(luò)部署到fpga上,人工智能,fpga開發(fā),tensorflow,ai

重啟網(wǎng)絡(luò)服務(wù):

sudo /etc/init.d/networking force-reload
sudo /etc/init.d/networking restart

此時IPv4的地址已經(jīng)修改成功,可以和主機ping通。
將神經(jīng)網(wǎng)絡(luò)部署到fpga上,人工智能,fpga開發(fā),tensorflow,ai

將已經(jīng)編譯的模型復(fù)制到開發(fā)板上,要求輸入root的密碼,密碼為root
scp tf_resnetv1_50_imagenet_224_224_6.97G_3.0/compiled/resnet50_tf.xmodel root@[BOARD_IP]:~

下載 vitis_ai_runtime_r3.0.0_image_video.tar.gz 測試圖,通過MobaXterm發(fā)送到開發(fā)板上,并在目標(biāo)邊緣平臺上解壓將下載好的測試圖片。
將神經(jīng)網(wǎng)絡(luò)部署到fpga上,人工智能,fpga開發(fā),tensorflow,ai
解壓圖片壓縮包tar -xzvf vitis_ai_runtime_r3.0.0_image_video.tar.gz -C Vitis-AI/examples/vai_runtime

將神經(jīng)網(wǎng)絡(luò)部署到fpga上,人工智能,fpga開發(fā),tensorflow,ai

運行 resnet50 示例

cd ~/Vitis-AI/examples/vai_runtime/resnet50
./resnet50 ~/resnet50_tf.xmodel

運行結(jié)果:
將神經(jīng)網(wǎng)絡(luò)部署到fpga上,人工智能,fpga開發(fā),tensorflow,ai文章來源地址http://www.zghlxwxcb.cn/news/detail-755997.html

到了這里,關(guān)于FPGA上利用Vitis AI部署resnet50 TensorFlow神經(jīng)網(wǎng)絡(luò)模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 深度學(xué)習(xí)圖像分類實戰(zhàn)——pytorch搭建卷積神經(jīng)網(wǎng)絡(luò)(AlexNet, LeNet, ResNet50)進行場景圖像分類(詳細(xì))

    深度學(xué)習(xí)圖像分類實戰(zhàn)——pytorch搭建卷積神經(jīng)網(wǎng)絡(luò)(AlexNet, LeNet, ResNet50)進行場景圖像分類(詳細(xì))

    目錄 1??一、實驗過程 1.1??實驗?zāi)康?1.2??實驗簡介 1.3??數(shù)據(jù)集的介紹 1.4??一、LeNet5網(wǎng)絡(luò)模型 1.5??二、AlexNet網(wǎng)絡(luò)模型 1.6??三、ResNet50(殘差網(wǎng)絡(luò))網(wǎng)絡(luò)模型 ?二、實驗代碼 導(dǎo)入實驗所需要的庫 ?參數(shù)配置 數(shù)據(jù)預(yù)處理 重新DataSet 加載數(shù)據(jù)轉(zhuǎn)為DataLoader函數(shù) 可視化一批訓(xùn)練

    2024年02月05日
    瀏覽(28)
  • pytorch實現(xiàn)AI小設(shè)計-1:Resnet50人臉68關(guān)鍵點檢測

    pytorch實現(xiàn)AI小設(shè)計-1:Resnet50人臉68關(guān)鍵點檢測

    ? ? ? ? 本項目是AI入門的應(yīng)用項目,后續(xù)可以補充內(nèi)容完善作為滿足個人需要。通過構(gòu)建自己的人臉數(shù)據(jù)集,此項目訓(xùn)練集為4580張圖片,測試集為2308張圖片,使用resnet50網(wǎng)絡(luò)進行訓(xùn)練,最后進行效果展示。本項目也提供了量化內(nèi)容,便于在硬件上部署。 ????????研究A

    2024年01月18日
    瀏覽(18)
  • 計算機視覺的應(yīng)用4-目標(biāo)檢測任務(wù):利用Faster R-cnn+Resnet50+FPN模型對目標(biāo)進行預(yù)測

    計算機視覺的應(yīng)用4-目標(biāo)檢測任務(wù):利用Faster R-cnn+Resnet50+FPN模型對目標(biāo)進行預(yù)測

    大家好,我是微學(xué)AI,今天給大家介紹一下計算機視覺的應(yīng)用4-目標(biāo)檢測任務(wù),利用Faster Rcnn+Resnet50+FPN模型對目標(biāo)進行預(yù)測,目標(biāo)檢測是計算機視覺三大任務(wù)中應(yīng)用較為廣泛的,F(xiàn)aster R-CNN 是一個著名的目標(biāo)檢測網(wǎng)絡(luò),其主要分為兩個模塊:Region Proposal Network (RPN) 和 Fast R-CNN。我

    2024年02月05日
    瀏覽(20)
  • 利用resnet50模型實現(xiàn)車牌識別(Python代碼,.ipynb和.py兩種文件保存都有,可以使用jupyter或pycharm運行)

    利用resnet50模型實現(xiàn)車牌識別(Python代碼,.ipynb和.py兩種文件保存都有,可以使用jupyter或pycharm運行)

    1.代碼的主要流程如下: 導(dǎo)入所需的庫和模塊。 對數(shù)據(jù)集進行可視化,隨機選擇一些圖像進行展示。 加載圖像數(shù)據(jù)集,并將圖像和標(biāo)簽存儲在數(shù)組中。 對標(biāo)簽進行獨熱編碼。 劃分訓(xùn)練集和測試集。 使用圖像數(shù)據(jù)增強技術(shù)增加訓(xùn)練數(shù)據(jù)的多樣性。 定義一些評估指標(biāo)的函數(shù)。

    2024年02月05日
    瀏覽(75)
  • 【AI】《動手學(xué)-深度學(xué)習(xí)-PyTorch版》筆記(十九):卷積神經(jīng)網(wǎng)絡(luò)模型(GoogLeNet、ResNet、DenseNet)

    【AI】《動手學(xué)-深度學(xué)習(xí)-PyTorch版》筆記(十九):卷積神經(jīng)網(wǎng)絡(luò)模型(GoogLeNet、ResNet、DenseNet)

    發(fā)布時間:2014年 GoogLeNet的貢獻是如何選擇合適大小的卷積核,并將不同大小的卷積核組合使用。 之前介紹的網(wǎng)絡(luò)結(jié)構(gòu)都是串行的,GoogLeNet使用并行的網(wǎng)絡(luò)塊,稱為“Inception塊” “Inception塊”前后進化了四次,論文鏈接: [1]https://arxiv.org/pdf/1409.4842.pdf [2]https://arxiv.org/pdf/150

    2024年02月12日
    瀏覽(110)
  • 使用Vitis AI 部署YOLOv5至KV260

    使用Vitis AI 部署YOLOv5至KV260

    目錄 一、相關(guān)介紹 二、相關(guān)鏈接參考 三、模型訓(xùn)練 四、環(huán)境部署 五、量化編譯 六、上機KV260 如題,此博客記錄初步使用Vitis-AI 部署YOLOv5目標(biāo)檢測網(wǎng)絡(luò)至KV260邊緣設(shè)備中。 由于整個過程需要注意環(huán)境、軟件包等之間的版本匹配,我給出所使用的相關(guān)版本: 名稱 ubantu GPU GP

    2024年04月28日
    瀏覽(132)
  • Xilinx Vitis AI量化部署Yolov5至DPU (PYNQ)

    Xilinx Vitis AI量化部署Yolov5至DPU (PYNQ)

    本文及后續(xù)更新都會放在個人主頁~ 歡迎來看看 https://lgyserver.top/index.php/2023/05/08/xilinx-vitis-ai%e9%87%8f%e5%8c%96%e9%83%a8%e7%bd%b2yolov5%e8%87%b3dpu-pynq/ 本文章記述了從YOLOv5源代碼使用Xilinx Vitis AI進行量化并部署到DPU上的全流程。在開Pynq環(huán)境下運行測試通過。 主機: Ubuntu 22.04 + Vivado 2022.

    2024年02月16日
    瀏覽(24)
  • Vitis-AI量化編譯YOLOv5(Pytorch框架)并部署ZCU104(二)

    Vitis-AI量化編譯YOLOv5(Pytorch框架)并部署ZCU104(二)

    第一章? Vitis-AI量化編譯YOLOv5(Pytorch框架)并部署ZCU104(一) 第二章? Vitis-AI量化編譯YOLOv5(Pytorch框架)并部署ZCU104(二) 目錄 系列文章目錄 前言 一、Netron查看網(wǎng)絡(luò)結(jié)構(gòu) 二、與開發(fā)板建立通信 1.設(shè)置主機 2.設(shè)置開發(fā)板 三、C++ API編寫 四、編譯運行 總結(jié) 第一章已經(jīng)詳細(xì)介

    2024年02月02日
    瀏覽(42)
  • Vitis-AI量化編譯YOLOv5(Pytorch框架)并部署ZCU104(一)

    Vitis-AI量化編譯YOLOv5(Pytorch框架)并部署ZCU104(一)

    文章目錄 前言 ?一、Vitis-AI Pytorch框架量化(vai_q_pytorch) ?二、編寫量化腳本并進行量化 ?三、模型編譯 總結(jié) 許多私信想要源碼工程,近期會上傳到Github倉庫,大家有需要自己拿就就可以。 https://github.com/sususjysjy/Vitis-ai-zcu104-yolov5 -------------------------------------------- ? ? ? ? 雖

    2024年02月02日
    瀏覽(15)
  • 【pytorch】ResNet18、ResNet20、ResNet34、ResNet50網(wǎng)絡(luò)結(jié)構(gòu)與實現(xiàn)

    【pytorch】ResNet18、ResNet20、ResNet34、ResNet50網(wǎng)絡(luò)結(jié)構(gòu)與實現(xiàn)

    選取經(jīng)典的早期Pytorch官方實現(xiàn)代碼進行分析 https://github.com/pytorch/vision/blob/9a481d0bec2700763a799ff148fe2e083b575441/torchvision/models/resnet.py 各種ResNet網(wǎng)絡(luò)是由BasicBlock或者bottleneck構(gòu)成的,它們是構(gòu)成深度殘差網(wǎng)絡(luò)的基本模塊 ResNet的大部分各種結(jié)構(gòu)是1層conv+4個block+1層fc 需要注意的是最后

    2024年02月02日
    瀏覽(41)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包