国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO)

這篇具有很好參考價(jià)值的文章主要介紹了論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

分類:動(dòng)作捕捉
github地址:https://github.com/Daniil-Osokin/lightweight-human-pose-estimation-3d-demo.pytorch
所需環(huán)境:
Windows10,conda 4.13.0;

conda環(huán)境配置

conda create -n lwmhpe3d python=3.8
conda activate lwmhpe3d
D:
cd D:\WLm_Project\MotionCatch\lwmhpe3d

安裝Pytorch全家桶

pip install "torch-1.13.1+cu116-cp38-cp38-win_amd64.whl"# 離線安裝 需要預(yù)先下載
pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu116
cd lwmhpe3d
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

安裝TensorRT(可選)

python -m pip install nvidia-pyindex
# nvidia官網(wǎng)下載TensorRT-8.6.1.6.Windows10.x86_64.cuda-11.8.zip:https://developer.nvidia.com/nvidia-tensorrt-8x-download
# 下載完成后 移動(dòng)并解壓縮
cd D:\WLm_Project\MotionCatch\lwmhpe3d\TensorRT-8.6.1.6.Windows10.x86_64.cuda-11.8\TensorRT-8.6.1.6\python
# 因?yàn)槭莗ython3.8環(huán)境 要安裝這個(gè)
pip install tensorrt-8.6.1-cp38-none-win_amd64.whl

論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺
安裝成功
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

將這tensorRT的三個(gè)文件夾復(fù)制到CUDA下( 記得復(fù)制之前CUDA的原始三個(gè)文件夾做好副本 注意路徑)
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

安裝torch2trt(可選)

cd D:\WLm_Project\MotionCatch\lwmhpe3d
git clone https://github.com/NVIDIA-AI-IOT/torch2trt
cd torch2trt
pip3 install packaging -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install -e .

論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

模型轉(zhuǎn)換為TensorRT兼容格式(可選)

# 轉(zhuǎn)換human-pose-estimation-3d.pth為human-pose-estimation-3d-trt.pth
python scripts/convert_to_trt.py --checkpoint-path human-pose-estimation-3d.pth

很奇怪 我的convert_to_trt.py沒法找到上級(jí)目錄中models與modules的文件
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

簡(jiǎn)單粗暴的解決辦法是: 把lwmhpe3d\lwmhpe3d\models和lwmhpe3d\lwmhpe3d\modules的所有文件都復(fù)制到lwmhpe3d\lwmhpe3d\scripts下

并修改convert_to_trt.py ; with_mobilenet.py腳本 使python腳本變?yōu)橥?jí)文件夾尋址:

論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

運(yùn)行指令

# 構(gòu)建pose_extractor模塊:
cd D:\WLm_Project\MotionCatch\lwmhpe3d\lwmhpe3d
# python setup.py build_ext
# 將構(gòu)建文件夾添加到PYTHONPATH:
# export PYTHONPATH=pose_extractor/build/:$PYTHONPATH

# 安裝完依賴項(xiàng)后可以直接運(yùn)行 無需編譯
# 使用GPU
python demo.py --model human-pose-estimation-3d.pth --video 0 --device GPU

# 使用tensorRT(可選)
python demo.py --model human-pose-estimation-3d-trt.pth --use-tensorrt --video 0

使用tensorRT運(yùn)行指令報(bào)錯(cuò):

[09/06/2023-09:32:05] [TRT] [E] 3: [executionContext.cpp::nvinfer1::rt::ExecutionContext::validateInputBindings::2083] Error Code 3: API Usage Error (Parameter check failed at: executionContext.cpp::nvinfer1::rt::ExecutionContext::validateInputBindings::2083, condition: profileMinDims.d[i] <= dimensions.d[i]. Supplied binding dimension [1,3,256,336] for bindings[0] exceed min ~ max range at index 3, maximum dimension in profile is 448, minimum dimension in profile is 448, but supplied dimension is 336.

論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

這個(gè)問題 作者在github上有說明

TensorRT does not support dynamic network input size reshape. Make sure you have set proper network input height, width with --height and --width options during conversion (if not, there will be no detections). Default values work for a usual video with 16:9 aspect ratio (1280x720, 1920x1080). You can check the network input size with print(scaled_img.shape) in the demo.py
TensorRT 不支持動(dòng)態(tài)網(wǎng)絡(luò)輸入大小重塑。確保您在轉(zhuǎn)換過程中設(shè)置了正確的網(wǎng)絡(luò)輸入高度、寬度和–height選項(xiàng)–width(如果沒有,將不會(huì)進(jìn)行檢測(cè))。默認(rèn)值適用于寬高比為 16:9 的普通視頻(1280x720、1920x1080)。print(scaled_img.shape)您可以在 demo.py 中檢查網(wǎng)絡(luò)輸入大小

可以在demo.py中加入打印語句
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺
運(yùn)行GPU推理時(shí)果然顯示
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

所以需要手動(dòng)更改這個(gè)值 在convert_to_trt.py的位置如下:將448改成336即可

論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺
再次運(yùn)行使用TensorRT推理指令即可成功!

運(yùn)行結(jié)果

esc退出

GPU運(yùn)行
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺
TensorRT加速

論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

TensorRT的FPS提升了一倍 接近60幀 然而GPU只有30幀 雖然視覺上差不了太多

conda list

# packages in environment at D:\Anaconda3\envs\lwmhpe3d:
#
# Name                    Version                   Build  Channel
ca-certificates           2023.05.30           haa95532_0
certifi                   2023.7.22                pypi_0    pypi
charset-normalizer        3.2.0                    pypi_0    pypi
idna                      3.4                      pypi_0    pypi
libffi                    3.4.4                hd77b12b_0
numpy                     1.24.4                   pypi_0    pypi
nvidia-pyindex            1.0.9                    pypi_0    pypi
onnx                      1.14.1                   pypi_0    pypi
opencv-python             4.8.0.76                 pypi_0    pypi
openssl                   3.0.10               h2bbff1b_2
packaging                 23.1                     pypi_0    pypi
pillow                    10.0.0                   pypi_0    pypi
pip                       23.2.1           py38haa95532_0
protobuf                  4.24.2                   pypi_0    pypi
python                    3.8.17               h1aa4202_0
requests                  2.31.0                   pypi_0    pypi
setuptools                68.0.0           py38haa95532_0
sqlite                    3.41.2               h2bbff1b_0
tensorrt                  8.6.1                    pypi_0    pypi
torch                     1.13.1+cu116             pypi_0    pypi
torch2trt                 0.4.0                     dev_0    <develop>
torchaudio                0.13.1+cu116             pypi_0    pypi
torchvision               0.14.1+cu116             pypi_0    pypi
typing-extensions         4.7.1                    pypi_0    pypi
urllib3                   2.0.4                    pypi_0    pypi
vc                        14.2                 h21ff451_1
vs2015_runtime            14.27.29016          h5e58377_2
wheel                     0.38.4           py38haa95532_0

以下是執(zhí)行setup失敗后的嘗試 實(shí)際上不需要編譯setup也可執(zhí)行demo 只是實(shí)時(shí)性不好(但是我需要的是算法 讀者不用看以下部分 這是我自己的記錄)

官網(wǎng)要求:

Python 3.5(或更高版本 )–>環(huán)境是3.8
CMake 3.10(或更高版本 )–>環(huán)境是3.27
C++ 編譯器(g++ 或 MSVC ) -->環(huán)境是C:/Program Files (x86)/Microsoft Visual Studio/2017/Community/VC/Tools/MSVC/14.16.27023/bin/Hostx86/x64/cl.exe
OpenCV 4.0(或更高版本)–>環(huán)境是4.8.0

Opencv4.8.0配置環(huán)境變量

需要提前編譯好并配置環(huán)境變量

https://github.com/opencv/opencv

論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺
無法解決的問題:
論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

Cmake3.27配置環(huán)境變量

直接下載壓縮包 將bin下的exe存在的路徑按下圖添加到path環(huán)境變量

https://cmake.org

論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

cmake --version# 需要先配置環(huán)境變量

論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO),論文復(fù)現(xiàn),python,pytorch,人工智能,計(jì)算機(jī)視覺

參考鏈接

1.windows下cmake的安裝與環(huán)境變量配置教程
2.Windows下Visual Studio 編譯OpenCV詳細(xì)教程(win10+vs2017+opencv4.5.2)(OpenCV最新版)(特別適合無法科學(xué)上網(wǎng)的童鞋們)
3.OpenCV 文件下載文章來源地址http://www.zghlxwxcb.cn/news/detail-695820.html

到了這里,關(guān)于論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • End-to-end 3D Human Pose Estimation with Transformer

    End-to-end 3D Human Pose Estimation with Transformer

    基于Transformer的端到端三維人體姿態(tài)估計(jì) 基于Transformer的架構(gòu)已經(jīng)成為自然語言處理中的常見選擇,并且現(xiàn)在正在計(jì)算機(jī)視覺任務(wù)中實(shí)現(xiàn)SOTA性能,例如圖像分類,對(duì)象檢測(cè)。然而,卷積方法在3D人體姿態(tài)估計(jì)的許多方法中仍然保持SOTA性能。受視覺變換器最近發(fā)展的啟發(fā),我們

    2024年02月08日
    瀏覽(22)
  • 2019CVPR Semantic Graph Convolutional Networks for 3D Human Pose Regression

    2019CVPR Semantic Graph Convolutional Networks for 3D Human Pose Regression

    基于語義圖卷積網(wǎng)絡(luò)的三維人體姿態(tài)回歸 源碼?https://github.com/garyzhao/SemGCN 在本文中,我們研究了學(xué)習(xí)圖卷積網(wǎng)絡(luò)(GCN)回歸的問題。GCN的當(dāng)前體系結(jié)構(gòu)受限于卷積濾波器和共享的變換矩陣為的小感受野。為了解決這些限制,我們提出了語義圖卷積網(wǎng)絡(luò)(SemGCN),這是一種新

    2024年02月10日
    瀏覽(21)
  • 基于人體姿勢(shì)估計(jì)的舞蹈檢測(cè)(AI Dance based on Human Pose Estimation)

    基于人體姿勢(shì)估計(jì)的舞蹈檢測(cè)(AI Dance based on Human Pose Estimation)

    人體姿勢(shì)骨架以圖形格式表示人的方向。本質(zhì)上,它是一組坐標(biāo),可以連接起來描述人的姿勢(shì)。骨架中的每個(gè)坐標(biāo)都被稱為一個(gè)部分(或一個(gè)關(guān)節(jié),或一個(gè)關(guān)鍵點(diǎn))。兩個(gè)部分之間的有效連接稱為一對(duì)(或分支)。下面是一個(gè)人體姿勢(shì)骨架樣本。 因此,在本文中,我們將研究如何

    2024年02月11日
    瀏覽(20)
  • Self-supervised 3D Human Pose Estimation from a Single Image

    Self-supervised 3D Human Pose Estimation from a Single Image

    基于單幅圖像的自監(jiān)督三維人體姿態(tài)估計(jì) ? 主頁:?https://josesosajs.github.io/ imagepose/ 源碼:未開源 我們提出了一種新的自我監(jiān)督的方法預(yù)測(cè)三維人體姿勢(shì)從一個(gè)單一的圖像。預(yù)測(cè)網(wǎng)絡(luò)是從描繪處于典型姿勢(shì)的人的未標(biāo)記圖像的數(shù)據(jù)集和一組未配對(duì)的2D姿勢(shì)訓(xùn)練的。通過最小化

    2024年02月10日
    瀏覽(19)
  • LGFormer:LOCAL TO GLOBAL TRANSFORMER FOR VIDEO BASED 3D HUMAN POSE ESTIMATION

    LGFormer:LOCAL TO GLOBAL TRANSFORMER FOR VIDEO BASED 3D HUMAN POSE ESTIMATION

    基于視頻的三維人體姿態(tài)估計(jì)的局部到全局Transformer 作者:馬海峰 *,陸克 * ?,薛健 *,牛澤海 *,高鵬程? * ? ? ? ? ? ?中國(guó)科學(xué)院大學(xué)工程學(xué)院,北京100049? ? ? ? ? ? ?鵬程實(shí)驗(yàn)室,深圳518055 來源:2022 IEEE International Conference on Multimedia and Expo (IEEE ICME) 基于Transformer的

    2024年02月09日
    瀏覽(25)
  • YOLO-pose復(fù)現(xiàn)流程

    YOLO-pose復(fù)現(xiàn)流程

    以下為用yolov5訓(xùn)練人體姿態(tài)估計(jì)復(fù)現(xiàn)流程 下載得到的原coco-kpts數(shù)據(jù)集格式如下 是由Annotations和Images和labels三個(gè)子文件夾組成。 ①然后將Images文件夾名稱改為images,兩者區(qū)別為首字母一個(gè)大寫,一個(gè)小寫,需要改為小寫。 ②將改為images的文件夾剪切進(jìn)labels文件夾下,現(xiàn)在的

    2024年02月01日
    瀏覽(17)
  • SynergyNet(頭部姿態(tài)估計(jì) Head Pose Estimation)復(fù)現(xiàn) demo測(cè)試

    SynergyNet(頭部姿態(tài)估計(jì) Head Pose Estimation)復(fù)現(xiàn) demo測(cè)試

    SynergyNet(github):https://github.com/choyingw/SynergyNet b站:https://www.bilibili.com/video/BV1Ph4y1k7LK/ 我用的AutoDL平臺(tái)搭建 選擇鏡像 PyTorch 1.9.0 Python 3.8(ubuntu18.04) Cuda 11.1 安裝其它包: 備注:如果無法下載,就到github中下載壓縮包,然后上傳解壓安裝 或者使用碼云下載: 需要下載如下文件

    2024年02月14日
    瀏覽(19)
  • 論文閱讀:GamutMLP A Lightweight MLP for Color Loss Recovery

    論文閱讀:GamutMLP A Lightweight MLP for Color Loss Recovery

    這篇文章是關(guān)于色彩恢復(fù)的一項(xiàng)工作,發(fā)表在 CVPR2023,其中之一的作者是 Michael S. Brown,這個(gè)老師是加拿大 York 大學(xué)的,也是 ISP 領(lǐng)域的大牛,現(xiàn)在好像也在三星研究院擔(dān)任兼職,這個(gè)老師做了很多這種類似的工作,通過一些輕量模型,將一些數(shù)據(jù)轉(zhuǎn)換過程中的變換關(guān)系進(jìn)行擬

    2024年02月19日
    瀏覽(27)
  • 【論文閱讀】Learing to summarize from human feedback

    【論文閱讀】Learing to summarize from human feedback

    更多關(guān)于大模型的文章可見:ShiyuNee/Awesome-Large-Language-Models: Papers about large language models (github.com) 該倉(cāng)庫(kù)持續(xù)更新 通過訓(xùn)練模型來向著人類偏好優(yōu)化可以顯著提高摘要質(zhì)量。 High-level methodology 從一個(gè)在摘要數(shù)據(jù)集上使用SFT微調(diào)好的初始模型開始,然后經(jīng)過以下三個(gè)步驟: 從已

    2024年02月09日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包