国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

MMPose姿態(tài)估計+人體關(guān)鍵點識別效果演示

這篇具有很好參考價值的文章主要介紹了MMPose姿態(tài)估計+人體關(guān)鍵點識別效果演示。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

MMPose——開源姿態(tài)估計算法庫(附人體關(guān)鍵點識別效果演示)

一、簡介

1.1 背景

首先姿態(tài)估計屬于計算機視覺領(lǐng)域的一個基礎(chǔ)研究方向。MMPose是基于Pytorch的姿態(tài)估計開源算法庫,功能全,涵蓋的算法多。

1.2 姿態(tài)估計的任務(wù)分類

  • 維度:預(yù)測的是2D還是3D姿態(tài)。

  • 輸入格式:圖片 or 視頻

  • 姿態(tài)的表示形式:關(guān)鍵點 or 形狀等

  • 目標(biāo)類型:全身 or 人臉 or 人手 or 動物 or 服飾

1.3 關(guān)于人體姿態(tài)估計任務(wù)

Human Pose Estimation是關(guān)鍵點檢測任務(wù)中最熱門的任務(wù),即進行人體骨架和關(guān)節(jié)的關(guān)鍵點檢測。

  • 人體姿態(tài)估計任務(wù)的擴展:包括基于骨架的、基于表面的、基于三維空間立體的。

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

例如:facebook提出的Dense pose。將整個人體表面進行包絡(luò)。(偽3D),并沒有將3維坐標(biāo)還原出來。如果要做3D,用三維人體重建的庫MMHuman3D。

關(guān)于視頻理解(MMAction2)與人體姿態(tài)估計的關(guān)系:視頻動作理解的基礎(chǔ)就是人體姿態(tài)估計。先得把骨骼關(guān)鍵點構(gòu)建出來,才能根據(jù)這些特征判斷動作。MMAction2可以參考這篇:關(guān)于MMAction2

論文鏈接:DensePose

1.4 MMPose的相關(guān)貢獻

(1)2D Human Pose(包括body+hand+face一共133個關(guān)鍵點)

(2)3D Human Pose(先檢測人體,再檢測2D Human Pose,再檢測3D Human Pose)

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

(3)3D Human Pose(人體網(wǎng)格重建任務(wù)——從image中恢復(fù)人體網(wǎng)格)

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

(4)3D Hand Pose(基于RGB圖像的2D和3D手勢聯(lián)合估計)

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

(5)其他還包括臉部關(guān)鍵點,animal pose,目標(biāo)跟蹤等等。

二、MMPose所涉及的算法

★這里先解釋一下Regression和Heatmap

  • Regression:直接用模型回歸預(yù)測得到每一個關(guān)鍵點的坐標(biāo)
  • Heatmap: 不直接回歸關(guān)鍵點本身的像素坐標(biāo),而是生成一張圖,表示圖中不同區(qū)域是該關(guān)鍵點的置信度。例如,人身上有14個關(guān)鍵點,就會生成14張heatmap,每個關(guān)鍵點處就會存在概率分布。
    mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

2.1 基于關(guān)鍵點坐標(biāo)回歸(Regression based)

DeepPose就是這一類方法的經(jīng)典代表。直接回歸關(guān)鍵點坐標(biāo)的方法思路比較簡單,預(yù)測速度快,但直接預(yù)測坐標(biāo)的精度會受到一定影響。

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測
論文鏈接:DeepPose

2.2 基于空間概率分布(Heatmap Based)

基于heatmap的方式逐漸成為主流。該方法會去每個位置預(yù)測一個分?jǐn)?shù),來表征該位置是關(guān)鍵點的置信度。根據(jù)預(yù)測到的heatmap,可以進一步去提取關(guān)鍵點的位置。由于該方法可以更好地保留空間信息,更符合CNN的設(shè)計特性,精度也比坐標(biāo)直接回歸更高。

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測
論文鏈接:Stacked Hourglass

2.3 人體姿態(tài)估計算法(2D)

主要分為兩種方法:自頂向下、自底向上

  • 自頂向下(TopDown):先檢測處圖片中的人體,再對每一個人體單獨預(yù)測關(guān)鍵點。該方法的計算量會隨著人數(shù)的增多而上升,但對不同尺寸的人體更加魯棒,精度更高。通俗來說,該方法更準(zhǔn)確。

  • 自底向上(BottomUp):先去檢測到所有的關(guān)鍵點,再進行關(guān)鍵點聚類,組合成人體。該方法的計算量不會隨著人數(shù)的增多而上升。通俗來說,該方法更快(人更多的時候越明顯)。

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

2.4 人體姿態(tài)估計算法(3D)

? 主要在3維空間里去預(yù)測人的位置,根據(jù)輸入不同,可以分為以下3種方法

  • 基于單目圖像從2D Pose預(yù)測3D Pose

這種方法的經(jīng)典代表:SimpleBaseline3D。根據(jù)2Dpose和原始圖像的特征,直接估計3D Pose。但是基于單目圖像會存在遮擋問題。

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測
論文鏈接:SimpleBaseline3D

  • 基于多視角信息

這種方法的經(jīng)典代表:VoxelPose。解決遮擋問題,例如一個場景有很多人,可以融合多視角的信息去重建3D Pose。

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

論文鏈接:VoxelPose

  • 基于視頻(多幀)信息

在以上兩種方法的基礎(chǔ)上,引入時間維度,相鄰的上下文信息可以輔助更好的預(yù)測。例如之前看的ViPNAS就是用上下文信息來輔助更好的預(yù)測。

這種方法的經(jīng)典代表:VideoPose3D。用2D關(guān)鍵點序列(多了時間維度,就是有好幾幀)作為輸入,然后通過時序的卷積網(wǎng)絡(luò)去處理信息,最后輸出3DPose。

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

論文鏈接:VideoPose3D

三、MMPose所用的數(shù)據(jù)集

3.1 姿態(tài)估計關(guān)鍵點數(shù)據(jù)集(2D)

基于圖像:COCO

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

基于視頻:PoseTrack18

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

3.2 姿態(tài)估計關(guān)鍵點數(shù)據(jù)集(3D)

基于單人:Human3.6M(360萬個人體pose的標(biāo)注)

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

基于多視角:CMU Panoptic

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

基于手部:InterHand2.6M

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

四、MMPose的總體框架

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

4.1 采用模塊化設(shè)計

將深度學(xué)習(xí)拆分成data(數(shù)據(jù)集)、model(模型)、optimizer(優(yōu)化器)等組件,先把每一個小模塊做好,再注冊到registry(注冊器)里,注冊器里包含了很多功能類似的模塊。在需要啟動任務(wù)時,通過config配置系統(tǒng),代碼就會調(diào)用builder,從而構(gòu)造一整套流程。減少了代碼的耦合。

4.2 用戶接口

在架構(gòu)上,mmpose使用了mmcv提供的底層的接口,通過runner去管理模型的訓(xùn)練、測試、推理等。

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

4.3 核心組件

(1)Dataloader:sample定義 + pipline

(Dataloader文件所在位置:Dataloader)

在dataloader方面,mmpose提供了一些數(shù)據(jù)集的接口,里面定義了sample和需要經(jīng)過的pipline

  • datasets文件夾完成數(shù)據(jù)加載,準(zhǔn)備pipline的輸入,在evaluate函數(shù)里計算metric
  • piplines文件夾:pipline是數(shù)據(jù)預(yù)處理的流水線,由一系列的transform組成,每個transform的輸入和輸出都是字典。例如,LoadImageFromFile就是從文件中讀取圖像,ToTensor就是將讀取的圖像轉(zhuǎn)化為pytorch的tensor。
  • samplers文件夾sampler就是采樣器。sampler提供dataset里數(shù)據(jù)的索引,然后dataloader根據(jù)索引從dataset里提取出對應(yīng)的data。然后將data輸給網(wǎng)絡(luò)進行training。

(2)Model:backbone + (neck) + head

(Model文件所在位置:models)

在模型層面,會把模型 分為backbone,neck,head三個部分

  • detectors文件夾:pose的檢測器。通常由backbone,neck,head組成。例如TopDown。
  • backbones文件夾:主干網(wǎng)絡(luò)。例如ResNet,HRNet,HRFormer等就在這里定義。
  • necks文件夾:處理backbone得到的特征
  • heads文件夾:預(yù)測頭,輸出最終預(yù)測結(jié)果。(loss定義在head中)

4.4 其他文件夾

(1)apis(https://github.com/open-mmlab/mmpose/tree/master/mmpose/apis)

封裝訓(xùn)練,測試和推理等流程

train.py:準(zhǔn)備數(shù)據(jù)加載,把模型加載到GPU,構(gòu)建optimizer和runner,注冊hooks等

test.py:模型測試。需要輸入模型和dataloader,測試模型精度。

inference.py:模型推理,進行可視化等工作。

Webcam API:調(diào)用MMpose及其他算法,實現(xiàn)基于攝像頭輸入視頻的交互式應(yīng)用。

(2)cores:(https://github.com/open-mmlab/mmpose/tree/master/mmpose/core)

前后處理,可視化,定制工具等

(3)tools:(https://github.com/open-mmlab/mmpose/tree/master/tools)

  • train.py:啟動訓(xùn)練任務(wù)的入口,讀入config,初始化訓(xùn)練環(huán)境,創(chuàng)建模型及數(shù)據(jù)集等,調(diào)用apis/train.py
  • test.py:模型推理測試的接口,數(shù)據(jù)集開啟test_mode,加載checkpoint,調(diào)用apis/test.py運行測試
  • 分布式訓(xùn)練的啟動腳本:dist_train.sh——通過pytorch啟動分布式 slurm_train.sh——通過slrum(一種集群式管理系統(tǒng))啟動分布式

五、MMPose相關(guān)效果演示

5.1 安裝配置

本機環(huán)境:GPU RTX 2060、CUDA v11.1

Pytorch版本:1.8.0

torchvision版本:0.9.0

編譯器版本:MSVC 192930137

mmtracking

mmpose:0.28.1

5.2 對圖像中人體的關(guān)鍵點檢測

(1)TopDown

  • 這里使用TopDown方法對圖像進行預(yù)測

  • 先用目標(biāo)檢測把人的框檢測出來:faster_rcnn網(wǎng)絡(luò)

  • 再做框里的人的姿態(tài)估計與關(guān)鍵點檢測:hrnet網(wǎng)絡(luò)

  • 效果展示

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

(2)BottomUp

  • 這里不需要目標(biāo)檢測模型,只需要bottom up人體姿態(tài)估計模型
  • 人體關(guān)鍵點檢測模型:hrnet
  • 效果精度并不如TopDown,會存在部分關(guān)鍵點之間的錯誤連接。但是在人更多的情況下速度會比TopDown快。

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

5.3 對視頻中人體的關(guān)鍵點檢測

(1)單幀輸入模型的視頻預(yù)測

  • 這里使用TopDown方法對視頻進行預(yù)測

  • 目標(biāo)檢測與關(guān)鍵點識別的網(wǎng)絡(luò)依然是faster_rcnn和hrnet

  • 效果展示

MMPose——單幀輸入視頻預(yù)測

  • 關(guān)于多幀輸入模型的視頻預(yù)測,就是將視頻前后多幀畫面輸入模型用于姿態(tài)預(yù)測。相比于單幀輸入,檢測到的會更細,例如櫥窗里的模特,廣告牌上的人也會被檢測到。但是同樣,計算量也會大很多。

(2)全圖輸入模型的視頻預(yù)測

  • 不提取人體檢測框,直接將全圖輸入至姿態(tài)估計模型中。僅適用于單人,并且單人的效果并不好

  • 這里使用TopDown的全圖輸入方法對視頻進行預(yù)測

  • 沒有目標(biāo)檢測模型

  • 人體關(guān)鍵點檢測網(wǎng)絡(luò):vipnas

  • 效果展示

MMPose——全圖輸入模型的視頻預(yù)測

(3)BottomUp算法的視頻預(yù)測

  • 同樣,精度效果不如TopDown

  • 人體姿態(tài)估計模型:hrnet

MMPose——BottomUp算法的視頻預(yù)測

5.4 對圖像和視頻中手掌的關(guān)鍵點檢測

  • Topdown算法
  • 目標(biāo)檢測模型:cascade_rcnn
  • 手部關(guān)鍵點檢測模型:res50
  • 效果展示:

在存在少部分遮擋的情況下,會存在部分關(guān)鍵點的誤識別,但基本上手部關(guān)鍵點都檢測正確

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

在沒有遮擋的情況下,手部關(guān)鍵點全都準(zhǔn)確識別。

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

視頻中的手部關(guān)鍵點識別效果也不錯

MMPose——手掌關(guān)鍵點檢測

5.5 對圖像和視頻中全身的關(guān)鍵點檢測

  • Topdown算法
  • 目標(biāo)檢測模型:faster_rcnn
  • 全身關(guān)鍵點檢測模型:hrnet
  • 效果展示

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測

視頻中關(guān)鍵點檢測效果也不錯

MMPose——全身關(guān)鍵點檢測(人臉+手+肢體)

5.6 MMPose攝像頭實時效果

實時的效果一般,目標(biāo)檢測的fps為20左右,人體姿態(tài)估計的fps為10左右

mmpose,OpenMMlab,計算機視覺,深度學(xué)習(xí),人工智能,神經(jīng)網(wǎng)絡(luò),目標(biāo)檢測文章來源地址http://www.zghlxwxcb.cn/news/detail-807311.html

六、相關(guān)參考鏈接

  1. DensePose論文鏈接:DensePose
  2. DeepPose論文鏈接:DeepPose
  3. Stacked Hourglass論文鏈接:Stacked Hourglass
  4. SimpleBaseline3D論文鏈接:SimpleBaseline3D
  5. VoxelPose論文鏈接:VoxelPose
  6. VideoPose3D論文鏈接:VideoPose3D
  7. MMPose中Dataloader位置:Dataloader
  8. MMPose中Model位置:models
  9. 項目地址:MMPose
  10. MMPose官方中文文檔:MMPose中文文檔
  11. 數(shù)據(jù)集的md文檔:數(shù)據(jù)集文檔
  12. 參考視頻教程:同濟子豪兄MMPose代碼實戰(zhàn)
  13. MMPose效果演示的相關(guān)參考文檔:
    2D人體關(guān)鍵點檢測
    在自己的數(shù)據(jù)集上訓(xùn)練2D人體關(guān)鍵點檢測模型
    2D手掌關(guān)鍵點檢測
    手掌檢測模型
    攝像頭實時webcam

到了這里,關(guān)于MMPose姿態(tài)估計+人體關(guān)鍵點識別效果演示的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • MediaPipe人體姿態(tài)、手指關(guān)鍵點檢測

    MediaPipe人體姿態(tài)、手指關(guān)鍵點檢測

    Mediapipe是google的一個開源項目,用于構(gòu)建機器學(xué)習(xí)管道 提供了16個預(yù)訓(xùn)練模型的案例:人臉檢測、Face Mesh、虹膜、手、姿態(tài)、人體、人物分割、頭發(fā)分割、目標(biāo)檢測、Box Tracking、Instant Motion Tracking、3D目標(biāo)檢測、特征匹配、AutoFlip、MediaSequence、YouTube-8M 肢體識別本質(zhì)上還是分類

    2024年02月08日
    瀏覽(28)
  • OpenMMLab-AI實戰(zhàn)營第二期——2-1.人體關(guān)鍵點檢測與MMPose

    OpenMMLab-AI實戰(zhàn)營第二期——2-1.人體關(guān)鍵點檢測與MMPose

    視頻鏈接:B站-人體關(guān)鍵點檢測與MMPose 關(guān)鍵點提取,屬于模式識別 人體姿態(tài)估計的下游任務(wù):行為識別(比如:擁抱。。) 下游任務(wù):CG和動畫,這個是最常見的應(yīng)用 下游任務(wù):人機交互(手勢識別,依據(jù)收拾做出不同的響應(yīng),比如:HoloLens會對五指手勢(3D)做出不同的反

    2024年02月11日
    瀏覽(18)
  • WinUI(WASDK)使用MediaPipe檢查人體姿態(tài)關(guān)鍵點

    WinUI(WASDK)使用MediaPipe檢查人體姿態(tài)關(guān)鍵點

    之前有用這個MediaPipe.NET .NET包裝庫搞了手勢識別,豐富了稚暉君的ElectronBot機器人的第三方上位機軟件的功能,MediaPipe作為谷歌開源的機器視覺庫,功能很豐富了,于是就開始整活了,來體驗了一把人體姿態(tài)關(guān)鍵點檢測。 這個框架是微軟最新的應(yīng)用開發(fā)框架,我是用來開發(fā)程

    2024年02月15日
    瀏覽(88)
  • 在 PyTorch 中使用關(guān)鍵點 RCNN 進行人體姿勢估計--附源碼

    人體姿態(tài)估計是計算機視覺領(lǐng)域的一個重要研究領(lǐng)域。它涉及估計人體上的獨特點,也稱為 關(guān)鍵點 。在這篇博文中,我們將討論一種在包含人類的圖像上查找關(guān)鍵點的算法,稱為 Keypoint-RCNN 。該代碼是使用 Pytorch 使用 Torchvision 庫編寫的。 假設(shè)您想要建立一名私人健身教練,

    2024年02月12日
    瀏覽(16)
  • mmpose關(guān)鍵點(四):優(yōu)化關(guān)鍵點模型(原理與代碼講解,持續(xù)更新)

    mmpose關(guān)鍵點(四):優(yōu)化關(guān)鍵點模型(原理與代碼講解,持續(xù)更新)

    在工程中,模型的運行速度與精度是同樣重要的,本文中,我會運用不同的方法去優(yōu)化比較模型的性能,希望能給大家?guī)硪恍嵱玫膖rick與經(jīng)驗。 有關(guān)鍵點檢測相關(guān)經(jīng)驗的同學(xué)應(yīng)該知道,關(guān)鍵點主流方法分為Heatmap-based與Regression-based。 其主要區(qū)別在于監(jiān)督信息的不同,Hea

    2024年02月08日
    瀏覽(28)
  • mmpose關(guān)鍵點(一):評價指標(biāo)(PCK,OKS,mAP)

    mmpose關(guān)鍵點(一):評價指標(biāo)(PCK,OKS,mAP)

    由于,近期項目需要引入關(guān)鍵點做一些方向邏輯的判斷,在此記錄一些實驗與經(jīng)典論文方法。首先,我們先了解一下關(guān)鍵點估計的評價指標(biāo)。 PCK表示關(guān)鍵點正確估計的比例 計算檢測的關(guān)鍵點與其對應(yīng)的groundtruth間的歸一化距離小于設(shè)定閾值的比例。在MPII 中是以頭部長度(he

    2024年02月04日
    瀏覽(128)
  • 2D人臉關(guān)鍵點轉(zhuǎn)3D人臉關(guān)鍵點的映射~頭部姿態(tài)筆記

    2D人臉關(guān)鍵點轉(zhuǎn)3D人臉關(guān)鍵點的映射~頭部姿態(tài)筆記

    對通過相機參數(shù)計算圖像上的二維坐標(biāo)到三維坐標(biāo)的映射進行簡單探討。 ????????學(xué)習(xí)的話直接看他們的就好,我僅是拾人牙慧,拿GPT寫給自己看的,圖也是直接搬運的別人畫的,以下鏈接有很完善的理論研究和代碼提供。 https://medium.com/@susanne.thierfelder/head-pose-estimation

    2024年02月04日
    瀏覽(23)
  • Pytorch+Python實現(xiàn)人體關(guān)鍵點檢測

    Pytorch+Python實現(xiàn)人體關(guān)鍵點檢測

    用Python+Pytorch工程代碼對人體進行關(guān)鍵點檢測和骨架提取,并實現(xiàn)可視化。 物體檢測為許多視覺任務(wù)提供動力,如實例分割、姿態(tài)估計、跟蹤和動作識別。它在監(jiān)控、自動駕駛和視覺答疑中有下游應(yīng)用。當(dāng)前的對象檢測器通過緊密包圍對象的軸向包圍框來表示每個對象。然后

    2024年02月09日
    瀏覽(21)
  • MediaPipe之人體關(guān)鍵點檢測>>>BlazePose論文精度

    MediaPipe之人體關(guān)鍵點檢測>>>BlazePose論文精度

    BlazePose: On-device Real-time Body Pose tracking BlazePose:設(shè)備上實時人體姿態(tài)跟蹤 論文地址:[2006.10204] BlazePose: On-device Real-time Body Pose tracking (arxiv.org) 主要貢獻: (1)提出一個新穎的身體姿態(tài)跟蹤解決方案和一個輕量級的身體姿態(tài)估計神經(jīng)網(wǎng)絡(luò),同時使用了熱圖(heatmap)和對關(guān)鍵點坐標(biāo)

    2024年02月06日
    瀏覽(79)
  • 基于mediapipe的人體33個關(guān)鍵點坐標(biāo)(BlazePose)

    基于mediapipe的人體33個關(guān)鍵點坐標(biāo)(BlazePose)

    BlazePose是一種輕量化的卷積神級網(wǎng)絡(luò)架構(gòu),適用于單人的關(guān)鍵點檢測,在人體身上標(biāo)注33個關(guān)鍵點,在單個中層手機CPU上的執(zhí)行速度要比OpenPose在20核桌面CPU[5]上快25-75倍。 33個關(guān)鍵點如下圖所示 導(dǎo)入庫 導(dǎo)入模型 讀入圖像 關(guān)鍵點檢測結(jié)果 此時會輸出關(guān)鍵點檢測結(jié)果,如下圖所

    2024年02月12日
    瀏覽(44)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包