国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

YOLOv8 全家桶再迎新成員!新增Pose Estimation模型!

這篇具有很好參考價(jià)值的文章主要介紹了YOLOv8 全家桶再迎新成員!新增Pose Estimation模型!。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

關(guān)注公眾號(hào),發(fā)現(xiàn)CV技術(shù)之美

不知不覺(jué)間,YOLOv8已經(jīng)發(fā)布三個(gè)月了,等待中的YOLOv8論文沒(méi)來(lái),昨天官方默默又加了新模型:姿態(tài)估計(jì)。

說(shuō)好的"目標(biāo)檢測(cè)"工業(yè)界標(biāo)桿,正向著“CV全家桶”闊步向前。

現(xiàn)在你可以用YOLOv8做目標(biāo)檢測(cè)、實(shí)例分割、圖像分類(lèi)、目標(biāo)跟蹤、姿態(tài)估計(jì)了,也許還有更多驚喜在后面。

要想使用最新的姿態(tài)估計(jì)功能,你需要更新到最新版的YOLOv8:

pip?install?--upgrade?ultralytics

官方的模型可以在這里下載:

https://github.com/ultralytics/assets/releases

其實(shí)你也可以不用下載,如果你僅調(diào)用官方模型,程序運(yùn)行時(shí)沒(méi)找到模型的話(huà),它會(huì)自己下載的,就是這么貼心?。ú贿^(guò)要保證你的網(wǎng)絡(luò)良好,親測(cè)國(guó)內(nèi)略慢)

模型是在COCO數(shù)據(jù)集訓(xùn)練的,目前支持的是人體的檢測(cè)和姿態(tài)估計(jì)。

CV君用一張網(wǎng)絡(luò)圖片測(cè)試一下:

yolo?pose?predict?model=yolov8n-pose.pt?source='http://neweuropeans.org/wp-content/uploads/2016/01/2015_Chisinau_Crossing_Europe_Poike-Stomps_MG_1047.jpg'?show=True?save=True

其中pose指定任務(wù)類(lèi)型,predict代表我們是要做推斷,模型這里我選擇的是最輕量級(jí)的YOLOv8n-pose,”show=True save=True“代表顯示并保存。

運(yùn)行結(jié)果:

Ultralytics?YOLOv8.0.68??Python-3.9.13?torch-1.13.1+cu117?CUDA:0?(NVIDIA?GeForce?GTX?1080?Ti,?11264MiB)
YOLOv8n-pose?summary?(fused):?187?layers,?3289964?parameters,?0?gradients,?9.2?GFLOPs

Downloading?http:\neweuropeans.org\wp-content\uploads\2016\01\2015_Chisinau_Crossing_Europe_Poike-Stomps_MG_1047.jpg?to?2015_Chisinau_Crossing_Europe_Poike-Stomps_MG_1047.jpg...
100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████|?564k/564k?[00:00<00:00,?1.29MB/s]
image?1/1?E:\download\2015_Chisinau_Crossing_Europe_Poike-Stomps_MG_1047.jpg:?448x640?17?persons,?24.6ms
Speed:?0.0ms?preprocess,?24.6ms?inference,?7.0ms?postprocess?per?image?at?shape?(1,?3,?640,?640)
Results?saved?to?runs\pose\predict
YOLOv8 全家桶再迎新成員!新增Pose Estimation模型!

我的GPU是1080Ti,這張1500x977大小的圖片推斷時(shí)間24.6ms。

如果要用YOLOv8調(diào)用攝像頭的話(huà),也非常簡(jiǎn)單:

yolo?pose?predict?model=yolov8n-pose.pt?source=0?show=True?save=True

官方在COCO數(shù)據(jù)集上做了更多測(cè)試:

YOLOv8 全家桶再迎新成員!新增Pose Estimation模型!

總計(jì)發(fā)布了YOLOv8n-pose、YOLOv8s-pose...YOLOv8x-pose-p6等6個(gè)模型,在A(yíng)100上的推斷速度從1.18ms到10.04ms,模型參數(shù)3.3M到99.1M。

方便在不同硬件和算力的平臺(tái)上使用。

當(dāng)然從CPU上的測(cè)試結(jié)果看,還不是一個(gè)CPU實(shí)時(shí)的算法。

不過(guò)更有價(jià)值的可能是,要訓(xùn)練我們自己的模型,是非常方便的。

按照coco128-pose.yaml的"樣例"組織好數(shù)據(jù)并修改coco128-pose.yaml后,你只需要一句命令:

yolo?pose?train?data=coco128-pose.yaml?model=yolov8n-pose.pt?epochs=100?imgsz=640

相關(guān)文檔:https://docs.ultralytics.com/tasks/pose/

寫(xiě)在最后:YOLOv8的功能越來(lái)越多,而且相比于其他開(kāi)源庫(kù),對(duì)于工業(yè)界來(lái)說(shuō)更友好,涵蓋訓(xùn)練、評(píng)估、推斷、部署全流程,是快速進(jìn)行項(xiàng)目開(kāi)發(fā)的首選。

下一個(gè)進(jìn)入YOLOv8 "CV全家桶"會(huì)是誰(shuí)呢?Face?

END,入群??備注:目標(biāo)檢測(cè)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-439045.html

到了這里,關(guān)于YOLOv8 全家桶再迎新成員!新增Pose Estimation模型!的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀(guān)點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 以yolov8-pose為案例學(xué)習(xí)如何寫(xiě)deepstream的回調(diào)函數(shù)

    在給定的代碼中,使用了以下幾個(gè)元素來(lái)構(gòu)建 DeepStream 管道: source :這個(gè)元素是用于從文件中讀取視頻流的輸入源。它可以是任何 GStreamer 支持的視頻輸入源,如文件、攝像頭、網(wǎng)絡(luò)流等。 streammux :這個(gè)元素是流復(fù)用器,用于將多個(gè)流合并成一個(gè)流,并將多幀畫(huà)面打包為批

    2024年02月13日
    瀏覽(20)
  • SynergyNet(頭部姿態(tài)估計(jì) Head Pose Estimation)復(fù)現(xiàn) demo測(cè)試

    SynergyNet(頭部姿態(tài)估計(jì) Head Pose Estimation)復(fù)現(xiàn) demo測(cè)試

    SynergyNet(github):https://github.com/choyingw/SynergyNet b站:https://www.bilibili.com/video/BV1Ph4y1k7LK/ 我用的AutoDL平臺(tái)搭建 選擇鏡像 PyTorch 1.9.0 Python 3.8(ubuntu18.04) Cuda 11.1 安裝其它包: 備注:如果無(wú)法下載,就到github中下載壓縮包,然后上傳解壓安裝 或者使用碼云下載: 需要下載如下文件

    2024年02月14日
    瀏覽(19)
  • 主干網(wǎng)絡(luò)篇 | YOLOv8 更換主干網(wǎng)絡(luò)之 VanillaNet |《華為方舟實(shí)驗(yàn)室最新成果》| 新增多個(gè)尺寸

    主干網(wǎng)絡(luò)篇 | YOLOv8 更換主干網(wǎng)絡(luò)之 VanillaNet |《華為方舟實(shí)驗(yàn)室最新成果》| 新增多個(gè)尺寸

    2023/11/14 新增 VanillaNet5 VanillaNet13 ?? 論文地址:https://arxiv.org/pdf/2305.12972.pdf 代碼地址:https://github.com/huawei-noah/VanillaNet 在基礎(chǔ)模型的核心是“多樣性即不同”,這一哲學(xué)在計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理方面取得了驚人的成功。然而,優(yōu)化和Transformer模型固有的復(fù)雜性帶來(lái)了挑戰(zhàn)

    2024年02月04日
    瀏覽(25)
  • 計(jì)算機(jī)視覺(jué)算法中的 相機(jī)姿態(tài)估計(jì)(Camera Pose Estimation)

    目錄 ?編輯引言 相機(jī)姿態(tài)估計(jì)的基本概念 相機(jī)姿態(tài)估計(jì)的方法 特征點(diǎn)匹配 直接法 基于深度學(xué)習(xí)的方法 相機(jī)姿態(tài)估計(jì)的應(yīng)用 增強(qiáng)現(xiàn)實(shí)(AR) 機(jī)器人導(dǎo)航 三維重建 結(jié)論 相機(jī)姿態(tài)估計(jì)是計(jì)算機(jī)視覺(jué)領(lǐng)域的重要任務(wù)之一。它涉及到確定相機(jī)在三維空間中的位置和朝向,常用于

    2024年02月05日
    瀏覽(22)
  • Human Pose Regression with Residual Log-likelihood Estimation

    Human Pose Regression with Residual Log-likelihood Estimation

    ????????通過(guò)似然熱圖對(duì)輸出分布進(jìn)行建模的基于熱圖的方法在人體姿態(tài)估計(jì)領(lǐng)域占據(jù)主導(dǎo)地位。相比之下,基于回歸的方法更有效,但效果較差。?在這項(xiàng)工作中,我們探索了最大似然估計(jì)(MLE),以開(kāi)發(fā)一種高效有效的基于回歸的方法。從MLE的角度來(lái)看,采用不同的回

    2023年04月26日
    瀏覽(31)
  • End-to-end 3D Human Pose Estimation with Transformer

    End-to-end 3D Human Pose Estimation with Transformer

    基于Transformer的端到端三維人體姿態(tài)估計(jì) 基于Transformer的架構(gòu)已經(jīng)成為自然語(yǔ)言處理中的常見(jiàn)選擇,并且現(xiàn)在正在計(jì)算機(jī)視覺(jué)任務(wù)中實(shí)現(xiàn)SOTA性能,例如圖像分類(lèi),對(duì)象檢測(cè)。然而,卷積方法在3D人體姿態(tài)估計(jì)的許多方法中仍然保持SOTA性能。受視覺(jué)變換器最近發(fā)展的啟發(fā),我們

    2024年02月08日
    瀏覽(22)
  • 實(shí)驗(yàn):如何在YOLO8中添加PnP算法來(lái)實(shí)現(xiàn)Head Pose Estimation

    實(shí)驗(yàn):如何在YOLO8中添加PnP算法來(lái)實(shí)現(xiàn)Head Pose Estimation

    YOLO8的集成度比較高,如何在簡(jiǎn)潔的代碼中加入Head Pose的東西,不是一件簡(jiǎn)單的事情.這里介紹如何插入PnP算法實(shí)現(xiàn)頭部姿態(tài)估計(jì)的代碼? 修改predict中的模型,改為我們自己訓(xùn)練的YOLOLandmark模型. 修改cfg入口,由于我們修改來(lái)config中不少超參數(shù),因此我們干脆修改來(lái)為fi

    2024年02月16日
    瀏覽(46)
  • 基于人體姿勢(shì)估計(jì)的舞蹈檢測(cè)(AI Dance based on Human Pose Estimation)

    基于人體姿勢(shì)估計(jì)的舞蹈檢測(cè)(AI Dance based on Human Pose Estimation)

    人體姿勢(shì)骨架以圖形格式表示人的方向。本質(zhì)上,它是一組坐標(biāo),可以連接起來(lái)描述人的姿勢(shì)。骨架中的每個(gè)坐標(biāo)都被稱(chēng)為一個(gè)部分(或一個(gè)關(guān)節(jié),或一個(gè)關(guān)鍵點(diǎn))。兩個(gè)部分之間的有效連接稱(chēng)為一對(duì)(或分支)。下面是一個(gè)人體姿勢(shì)骨架樣本。 因此,在本文中,我們將研究如何

    2024年02月11日
    瀏覽(20)
  • Self-supervised 3D Human Pose Estimation from a Single Image

    Self-supervised 3D Human Pose Estimation from a Single Image

    基于單幅圖像的自監(jiān)督三維人體姿態(tài)估計(jì) ? 主頁(yè):?https://josesosajs.github.io/ imagepose/ 源碼:未開(kāi)源 我們提出了一種新的自我監(jiān)督的方法預(yù)測(cè)三維人體姿勢(shì)從一個(gè)單一的圖像。預(yù)測(cè)網(wǎng)絡(luò)是從描繪處于典型姿勢(shì)的人的未標(biāo)記圖像的數(shù)據(jù)集和一組未配對(duì)的2D姿勢(shì)訓(xùn)練的。通過(guò)最小化

    2024年02月10日
    瀏覽(19)
  • 手撕 視覺(jué)slam14講 ch7 / pose_estimation_3d2d.cpp (1)

    手撕 視覺(jué)slam14講 ch7 / pose_estimation_3d2d.cpp (1)

    ?1. 讀圖,兩張rgb(cv::imread) ?2. 找到兩張rgb圖中的特征點(diǎn)匹配對(duì) ?????? 2.1定義所需要的參數(shù):keypoints1, keypoints2,matches ?????? 2.2 提取每張圖像的檢測(cè) Oriented FAST 角點(diǎn)位置并匹配篩選(調(diào)用功能函數(shù)1) ?3. 建立3d點(diǎn)(像素坐標(biāo)到相機(jī)坐標(biāo)) ????????3.1讀出深度圖(c

    2024年02月10日
    瀏覽(22)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包