国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

基于YOLOv5的兒童睡眠檢測(cè)

這篇具有很好參考價(jià)值的文章主要介紹了基于YOLOv5的兒童睡眠檢測(cè)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

注意: 由于SOPHGO SE5微服務(wù)器的CPU是基于ARM架構(gòu),部分步驟將在 基于x86架構(gòu)CPU的開發(fā)環(huán)境中完成
一、初始化開發(fā)環(huán)境(基于x86架構(gòu)CPU的開發(fā)環(huán)境中完成)
二、模型轉(zhuǎn)換 (基于x86架構(gòu)CPU的開發(fā)環(huán)境中完成)
三、YOLOv5模型部署測(cè)試(在SOPHGO SE5微服務(wù)器上進(jìn)行)

本實(shí)驗(yàn)代碼和模型可在Connecting... 下載

一、初始化開發(fā)環(huán)境 (基于x86架構(gòu)CPU的開發(fā)環(huán)境中完成)

1.1 初始化開發(fā)環(huán)境

1.2 配置Docker容器開發(fā)環(huán)境

以下步驟均在Docker容器中進(jìn)行:
1. 安裝nntc以及配置環(huán)境變量
# 切換成 root 權(quán)限
sudo -i
# 下載Docker鏡像
wget https://sophon-file.sophon.cn/sophon-prod-s3/drive/22/07/19/10/x86_sophonsdk
_ubuntu18.04_py37_dev_22.06_docker.zip
# 確保環(huán)境安裝unzip后解壓
unzip x86_sophonsdk3_ubuntu18.04_py37_dev_22.06_docker.zip
# 進(jìn)入文件夾并加載Docker鏡像
cd x86_sophonsdk3_ubuntu18.04_py37_dev_22.06_docker
docker load -i x86_sophonsdk3_ubuntu18.04_py37_dev_22.06.docker
# 下載SOPHON SDK3.0.0
wget https://sophon-file.sophon.cn/sophon-prod-s3/drive/22/07/18/11/
sophonsdk_v3.0.0_20220716.zip
unzip sophonsdk_v3.0.0_20220716.zip
cd sophonsdk_v3.0.0
# 通過腳本文件創(chuàng)建并進(jìn)入Docker容器
# 若您沒有執(zhí)行前述關(guān)于docker命令免root執(zhí)行的配置操作,需在命令前添加sudo
./docker_run_sophonsdk.sh
cd /workspace/scripts/
./install_lib.sh nntc
# 設(shè)置環(huán)境變量-[有PCIe加速卡]
source envsetup_pcie.sh
# 設(shè)置環(huán)境變量-[無PCIe加速卡]
source envsetup_cmodel.sh

導(dǎo)出的環(huán)境變量只對(duì)當(dāng)前終端有效,每次進(jìn)入容器都需要重新執(zhí)行一遍,或者可以將這些環(huán)境變量寫入
~/.bashrc,這樣每次登錄將會(huì)自動(dòng)設(shè)置環(huán)境變量

二、模型轉(zhuǎn)換 (基于x86架構(gòu)CPU的開發(fā)環(huán)境中完成)


由于BMNNSDK中的PyTorch模型編譯工具BMNETP只接受PyTorchJIT模型(TorchScript模型),需要用戶自行將訓(xùn)練好的Pytorch模型進(jìn)行轉(zhuǎn)換。JITJust-In-Time)是一組編譯工具,用于彌合PyTorch研究與生產(chǎn)之間的差距。它允許創(chuàng)建可以在不依Python解釋器的情況下運(yùn)行的模型,并且可以更積極地進(jìn)行優(yōu)化。在已有PyTorchPython模型(基類為torch.nn.Module)的情況下,通過 torch.jit.trace 就可以得到JIT模型,如torch.jit.trace(python_model,torch.rand(input_shape)).save('jit_model') 。BMNETP暫時(shí)不支持帶有控制流操作(如if語句或循環(huán))的JIT模型,因此不能使用 torch.jit.script ,而要使用torch.jit.trace ,它僅跟蹤和記錄張量上的操作,不會(huì)記錄任何控制流操作

2.1 將訓(xùn)練好的Pytorch模型轉(zhuǎn)換為JIT模型 ?

2.1.1 直接獲取轉(zhuǎn)換好的 JIT 模型?

在sleep/sleep-aug-640.yolov5pytorch/yolov5s6/weights/best.trace.pt 為轉(zhuǎn)換好的JIT模型

2.1.2 自行將訓(xùn)練好的Pytorch模型轉(zhuǎn)換為JIT模型

下載ultralytics官方YOLOv5源碼
# 在容器里, python3.7docker為例
cd ${YOLOv5}
# 下載yolov5源碼
git clone https://github.com/ultralytics/yolov5.git yolov5_github
# 切換到yolov5工程目錄
cd yolov5_github
# 使用tag從遠(yuǎn)程創(chuàng)建本地v6.1分支
git branch v6.1 v6.1
git checkout -v6.1
# 將下載好的sleep導(dǎo)入yolov5_github

修改models/yolo.pyDetect類的forward函數(shù)的最后return語句,實(shí)現(xiàn)不同的輸出

# 此模型為單輸出
def forward(self, x):
??? return x if self.training else (torch.cat(z, 1)) # 1個(gè)輸出

#return x if self.training else x # 3個(gè)輸出
# return x if self.training else (torch.cat(z, 1), x) # 4個(gè)輸出

導(dǎo)出JIT模型

cd ${yolov5}/yolov5_github目錄下

# 創(chuàng)建python虛擬環(huán)境virtualenv
pip3 install virtualenv
# 切換到虛擬環(huán)境
virtualenv -p python3 --system-site-packages env_yolov5
source env_yolov5/bin/activate
# 安裝依賴
pip3 install -r requirements.txt
# 此過程遇到依賴沖突或者錯(cuò)誤屬正?,F(xiàn)象
# 導(dǎo)出jit模型
python3 export.py --weights ${sleep}/ sleep-aug-640.yolov5pytorch/yolov5s6/weights/best.pt --include torchscript
# 退出虛擬環(huán)境
deactivate
# 將生成好的jit模型best.torchscript拷貝到${YOLOv5}/build文件夾下
mkdir ../build
cp best.torchscript ../build/sleep_best_1output.trace.pt
# 拷貝一份到${YOLOv5}/data/models文件夾下
mkdir ../data/models
cp best.torchscript ../data/models/sleep_best_1output.trace.pt

2.2 模型轉(zhuǎn)換:生成FP32 BModel ?

Python命令生成FP32 BModel

BMNETP是針對(duì)pytorch的模型編譯器,可以把pytorch模型直接編譯成BMRuntime所需的執(zhí)行指令。
通過以下命令可以實(shí)現(xiàn)FP32 BModel模型的直接生成(確保生成的JIT模型拷貝至
${YOLOv5}/data/models 路徑下):

cd ${YOLOv5}/data/models/
python3 -m bmnetp --mode="compile" \
--model=sleep_best_1output.trace.pt \
--outdir=sleep_best_1output \
--target="BM1684" \
--shapes=[[1,3,640,640]] \
--net_name=yolov5s_fp32_b1 \
--opt= 2 \
--dyn=False \
--cmp=True \
--enable_profile=True

上述腳本會(huì)在 ${YOLOv5}/data/models/sleep_best_1output 下生成 compilation.bmodel 文件

使用如下命令查看模型具體信息:
bm_model.bin –info compilation.bmodel

基于YOLOv5的兒童睡眠檢測(cè)


bmrt_test --bmodel compilation.bmodel

基于YOLOv5的兒童睡眠檢測(cè)

三、YOLOv5模型部署測(cè)試(在算能云開發(fā)平臺(tái)進(jìn)行)

3.1 準(zhǔn)備示例程序 ?

以下步驟在基于x86架構(gòu)CPU的開發(fā)環(huán)境中進(jìn)行
一、初始化開發(fā)環(huán)境

https://cloud.sophgo.com/developer

基于YOLOv5的兒童睡眠檢測(cè)

參考云開發(fā)平臺(tái)手冊(cè)學(xué)習(xí)使用

云空間文件系統(tǒng)對(duì)應(yīng)命令行 /tmp 目錄

二、模型轉(zhuǎn)換處理好的YOLOv5項(xiàng)目文件拷貝至云開發(fā)平臺(tái)上:

將sleep文件模型拷貝到云開發(fā)平臺(tái)。

3.2 BModel測(cè)試(Python例程)

cd ${sleep}/bmodel/python
# BModel和圖片路徑名僅供參考,具體根據(jù)各自的路徑進(jìn)行修改

python3 yolov5_opencv.py --bmodel
../bmodels/sleep_best_1output/compilation.bmodel --input../../ sleep-aug-640.yolov5pytorch/test/images/

python3 yolov5_bmcv.py --bmodel
../bmodels/sleep_best_1output/compilation.bmodel --input../../ sleep-aug-640.yolov5pytorch/test/images/

輸出結(jié)果

基于YOLOv5的兒童睡眠檢測(cè)

基于YOLOv5的兒童睡眠檢測(cè)基于YOLOv5的兒童睡眠檢測(cè)文章來源地址http://www.zghlxwxcb.cn/news/detail-440604.html

到了這里,關(guān)于基于YOLOv5的兒童睡眠檢測(cè)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • YOLOv7改進(jìn)注意力機(jī)制系列:最新結(jié)合即插即用CA(Coordinate attention) 注意力機(jī)制(適用于YOLOv5),CVPR 2021 頂會(huì)助力分類檢測(cè)漲點(diǎn)!

    YOLOv7改進(jìn)注意力機(jī)制系列:最新結(jié)合即插即用CA(Coordinate attention) 注意力機(jī)制(適用于YOLOv5),CVPR 2021 頂會(huì)助力分類檢測(cè)漲點(diǎn)!

    ??統(tǒng)一使用 YOLOv5、YOLOv7 代碼框架, 結(jié)合不同模塊來構(gòu)建不同的YOLO目標(biāo)檢測(cè)模型。 論文所提的 Coordinate注意力 很簡單,可以靈活地插入到經(jīng)典的移動(dòng)網(wǎng)絡(luò)中,而且?guī)缀鯖]有計(jì)算開銷。大量實(shí)驗(yàn)表明,Coordinate注意力不僅有益于ImageNet分類,而且更有趣的是,它在下游任務(wù)(如

    2024年02月05日
    瀏覽(28)
  • YOLOv5改進(jìn) | 一文匯總:如何在網(wǎng)絡(luò)結(jié)構(gòu)中添加注意力機(jī)制、C3、卷積、Neck、SPPF、檢測(cè)頭

    本篇文章的內(nèi)容是在大家得到一個(gè)改進(jìn)版本的C3一個(gè)新的注意力機(jī)制、或者一個(gè)新的卷積模塊、或者是檢測(cè)頭的時(shí)候如何替換我們YOLOv5模型中的原有的模塊,從而用你的模塊去進(jìn)行訓(xùn)練模型或者檢測(cè)。因?yàn)樽罱_了一個(gè)專欄里面涉及到挺多改進(jìn)的地方,不能每篇文章都去講解

    2024年02月19日
    瀏覽(27)
  • 基于YOLOv5的WiderFace人臉檢測(cè)檢測(cè)系統(tǒng)(PyTorch+Pyside6+YOLOv5模型)

    基于YOLOv5的WiderFace人臉檢測(cè)檢測(cè)系統(tǒng)(PyTorch+Pyside6+YOLOv5模型)

    摘要:基于YOLOv5的WiderFace人臉檢測(cè)系統(tǒng)可用于日常生活中檢測(cè)與定位人臉目標(biāo),利用深度學(xué)習(xí)算法可實(shí)現(xiàn)圖片、視頻、攝像頭等方式的人臉目標(biāo)檢測(cè)識(shí)別,另外支持結(jié)果可視化與圖片或視頻檢測(cè)結(jié)果的導(dǎo)出。本系統(tǒng)采用YOLOv5目標(biāo)檢測(cè)模型訓(xùn)練數(shù)據(jù)集,使用Pysdie6庫來搭建頁面展

    2024年02月15日
    瀏覽(22)
  • 基于YOLOV5的鋼材缺陷檢測(cè)

    基于YOLOV5的鋼材缺陷檢測(cè)

    ? ? ? ? 數(shù)據(jù)集使用的是東北大學(xué)收集的一個(gè)鋼材缺陷檢測(cè)數(shù)據(jù)集,需要檢測(cè)出鋼材表面的6種劃痕。同時(shí),數(shù)據(jù)集格式是VOC格式,需要進(jìn)行轉(zhuǎn)化 ,上傳的源碼中的數(shù)據(jù)集是經(jīng)過轉(zhuǎn)換格式的版本。 ? ? ? ? 在數(shù)據(jù)集目錄下,train文件夾下有訓(xùn)練集數(shù)據(jù)及YOLO標(biāo)簽,valid文件夾下

    2024年02月06日
    瀏覽(28)
  • 基于Yolov5的目標(biāo)檢測(cè)(以口罩檢測(cè)為例)

    基于Yolov5的目標(biāo)檢測(cè)(以口罩檢測(cè)為例)

    口罩?jǐn)?shù)據(jù)集:GitHub - X-zhangyang/Real-World-Masked-Face-Dataset: Real-World Masked Face Dataset,口罩人臉數(shù)據(jù)集 yolov5 源碼: GitHub - ultralytics/yolov5: YOLOv5 ?? in PyTorch ONNX CoreML TFLite 1.? 基于區(qū)域提取的兩階段目標(biāo)檢測(cè) 1.1 SPP-Net 1.2 R-CNN ?1.3 FAST R-CNN ?1.4 FASTER-CNN 2.? 基于回歸的單階段為目標(biāo)檢測(cè)

    2024年02月08日
    瀏覽(24)
  • 基于YOLOv5的水下海洋目標(biāo)檢測(cè)

    基于YOLOv5的水下海洋目標(biāo)檢測(cè)

    摘要:水下海洋目標(biāo)檢測(cè)技術(shù)具有廣泛的應(yīng)用前景,可以用于海洋環(huán)境監(jiān)測(cè)、海洋資源開發(fā)、海洋生物學(xué)研究等領(lǐng)域。本文提出了一種基于 YOLOv5 的水下海洋目標(biāo)檢測(cè)方法,使用數(shù)據(jù)增強(qiáng)方法進(jìn)行了大量實(shí)驗(yàn),并與其他方法進(jìn)行了對(duì)比,實(shí)現(xiàn)了在檢測(cè)各種不同的海洋環(huán)境和水

    2023年04月15日
    瀏覽(17)
  • YoloV5+ECVBlock:基于YoloV5-ECVBlock的小目標(biāo)檢測(cè)訓(xùn)練

    YoloV5+ECVBlock:基于YoloV5-ECVBlock的小目標(biāo)檢測(cè)訓(xùn)練

    目錄 1、前言 2、數(shù)據(jù)集 3、添加ECVBlock ?4、BackBone+ECVBlock 5、Head+ECVBlock 6、訓(xùn)練結(jié)果 6.1 Backbone 6.2 Head ? 視覺特征金字塔在廣泛的應(yīng)用中顯示出其有效性和效率的優(yōu)越性。然而,現(xiàn)有的方法過分地集中于層間特征交互,而忽略了層內(nèi)特征規(guī)則,這是經(jīng)驗(yàn)證明是有益的。盡管一些

    2024年02月05日
    瀏覽(40)
  • 基于YOLOv5的火焰煙霧檢測(cè)算法實(shí)戰(zhàn)

    基于YOLOv5的火焰煙霧檢測(cè)算法實(shí)戰(zhàn)

    一個(gè)不知名大學(xué)生,江湖人稱菜狗 original author: Jacky Li Email : 3435673055@qq.com Time of completion:2023.6.11 Last edited: 2023.6.11 導(dǎo)讀: 火焰煙霧檢測(cè)是智慧安防業(yè)務(wù)場(chǎng)景中重要的功能之一,本文提出了一種基于YOLOv5的火焰煙霧檢測(cè)算法,具有更強(qiáng)的泛化性,對(duì)火焰煙霧的檢測(cè)效果更加準(zhǔn)

    2024年02月09日
    瀏覽(16)
  • Yolov5漲點(diǎn)神器:注意力機(jī)制---多頭上下文集成(Context Aggregation)的廣義構(gòu)建模塊,助力小目標(biāo)檢測(cè),暴力漲點(diǎn)

    目錄 ?1.數(shù)據(jù)集性能驗(yàn)證 2.Context Aggregation介紹? 3. Yolov5引入ContextAggregation 3.1?修改common.py 3.2 注冊(cè)yolo.py模塊

    2024年02月07日
    瀏覽(75)
  • 基于YOLOv5 來訓(xùn)練頭盔目標(biāo)檢測(cè)-附源碼

    建筑工地頭部頭盔檢測(cè),基于目標(biāo)檢測(cè)工地安全帽和禁入危險(xiǎn)區(qū)域識(shí)別系統(tǒng),????附Y(jié)OLOv5訓(xùn)練自己的數(shù)據(jù)集超詳細(xì)教程?。?! 目錄 指標(biāo) yolov5s 為基礎(chǔ)訓(xùn)練,epoch = 50 yolov5m 為基礎(chǔ)訓(xùn)練,epoch = 100

    2024年02月13日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包