国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

yolov8-pose姿態(tài)估計數(shù)據(jù)集制作(一)

這篇具有很好參考價值的文章主要介紹了yolov8-pose姿態(tài)估計數(shù)據(jù)集制作(一)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

導讀

最近在搞yolo-pose姿態(tài)識別算法,現(xiàn)成的模型已經(jīng)挺好用了,但是在某些特定的場景下,還是識別不準。所以想著自己搞搞數(shù)據(jù),查了網(wǎng)上相關的博客,基本思路都是先按照coco格式來標,然后再轉(zhuǎn)化成yolo格式。不廢話,直接說咋干。

標注工具

這里推薦使用CVAT,好用,沒啥說。GitHub鏈接:https://github.com/opencv/cvat, 官方說明文檔:https://opencv.github.io/cvat/docs/。 部署安裝不再多說,按照官網(wǎng)的文檔復制粘貼命令就行了。
安裝完成之后,在瀏覽器中登錄CVAT 平臺,如圖:
yolov8-pose姿態(tài)估計數(shù)據(jù)集制作(一)
CVAT的使用邏輯是, 先創(chuàng)建一個organization(組織), 再組織里創(chuàng)建一個project(項目),然后在project中創(chuàng)建一個task(任務),創(chuàng)建任務時,需要創(chuàng)建一個可以認為是模板的玩意,把人體的基本結構畫出來,然后在標注的時候,直接通過挪動點的位置的方法,來進行標注。
在創(chuàng)建任務的時候,點擊Setup skeleton。
yolov8-pose姿態(tài)估計數(shù)據(jù)集制作(一)
在常規(guī)標簽表單下方,可以先傳一張正面人體全身照,做參照來設置關鍵點,因為是人體關鍵點,所以標簽設置為“person”, 再選擇點標注,然后在繪圖區(qū)域把人體的點畫出來。(我在下圖中是隨手把點畫出來了,所以看不清楚是個人,這個不影響后續(xù)標注)。我們總共是標了17個點,按照coco keypoints的要求來標17個點,分別為:“nose”,“l(fā)eft_eye”, “right_eye”,“l(fā)eft_ear”, “right_ear”,“l(fā)eft_shoulder”, “right_shoulder”,“l(fā)eft_elbow”, “right_elbow”,“l(fā)eft_wrist”, “right_wrist”,“l(fā)eft_hip”, “right_hip”,“l(fā)eft_knee”, “right_knee”,“l(fā)eft_ankle”, “right_ankle”。

yolov8-pose姿態(tài)估計數(shù)據(jù)集制作(一)
這個設置好之后,點擊done,完成。
然后就可以上傳圖片,發(fā)布任務了。點擊 “+” 號, 可以一次創(chuàng)建一張圖,可以一次創(chuàng)建多張圖,或者視頻,創(chuàng)建完之后,就可以在這個頁面看到剛發(fā)布的任務了。
yolov8-pose姿態(tài)估計數(shù)據(jù)集制作(一)
創(chuàng)建好的任務列表如下,點擊OPEN按鈕,就可以打開任務,進行標注:
yolov8-pose姿態(tài)估計數(shù)據(jù)集制作(一)

點擊Job,就可以進入到標注界面:
yolov8-pose姿態(tài)估計數(shù)據(jù)集制作(一)
標注界面如下,如果非連續(xù)幀,可以選擇shape按鈕進行單幀標注。如果是視頻連續(xù)幀,可以選擇track按鈕進行連續(xù)幀標注,按照coco數(shù)據(jù)集的順序,把17個點按順序進行標注,順序不能錯。如果點被遮擋了,可以在這個點上,右鍵,修改為遮擋屬性,即coco數(shù)據(jù)集中V的值等于1,如果點被截斷了,可以在這個點上,右鍵,修改為截斷屬性,即coco數(shù)據(jù)集中V的值等于0,其他可見的點V值都為2:
yolov8-pose姿態(tài)估計數(shù)據(jù)集制作(一)

導出數(shù)據(jù)集

在標注完成之后,點擊menu按鈕-----> export job dataset, 選擇 COCO Keypoints 1.0格式,點擊ok即可。
yolov8-pose姿態(tài)估計數(shù)據(jù)集制作(一)
導出的數(shù)據(jù)格式只有一個json文件,后續(xù)就可以拿這個數(shù)據(jù)集來搞自己的事情了。

附上一個可視化的代碼

網(wǎng)上搜到的代碼,好多都有問題。。我也是參照別人的代碼,改了改,遍歷目錄下所有的圖片,逐個進行可視化。
yolov8-pose姿態(tài)估計數(shù)據(jù)集制作(一)文章來源地址http://www.zghlxwxcb.cn/news/detail-503358.html

# -*- coding:utf-8 -*-
import os
import numpy as np
from pycocotools.coco import COCO
import cv2

def plow_show(imgIds):
    img = coco.loadImgs(imgIds)[0]
    matImg = cv2.imread('%s/%s' % (img_prefix, img['file_name']))
    annIds = coco.getAnnIds(imgIds=img['id'], catIds=catIds, iscrowd=None)

    # 通過注釋的id,得到注釋的信息
    anns = coco.loadAnns(annIds)
    for ann in anns:
        kp = np.array(ann['keypoints'])
        x = kp[0::3]
        y = kp[1::3]
        v = kp[2::3]
        for sk in sks:
            c = aColor[np.random.randint(0, 4)]
              # 畫連接線
            if np.all(v[sk] > 0):
                cv2.line(matImg, (round(x[sk][0]), round(y[sk][0])), (round(x[sk][1]), round(y[sk][1])), c, 1)
        # 畫關鍵點
        for i in range(x.shape[0]):
            c = aColor[np.random.randint(0, 4)]
            if np.all(v[i] > 0):
                cv2.circle(matImg, (int(x[i]), int(y[i])), 2, c, lineType=1)
    cv2.imshow("show", cv2.resize(matImg, (1280, 720)))
    cv2.waitKey(0)


if __name__ == '__main__':
    annFile = r'C:\Users\37452\Downloads\123\annotations\person_keypoints_default.json'
    img_prefix = r'C:\Users\37452\Downloads\123\images'
    sks = np.array([[16, 14], [14, 12], [17, 15], [15, 13], [12, 13], [6, 12], [7, 13], [6, 7],
                         [6, 8], [7, 9], [8, 10], [9, 11], [2, 3], [1, 2], [1, 3], [2, 4], [3, 5], [4, 6], [5, 7]]) - 1
    aColor = [(0, 255, 0, 0), (255, 0, 0, 0), (0, 0, 255, 0), (0, 255, 255, 0)]
    coco = COCO(annFile)

    # getCatIds(catNms=[], supNms=[], catIds=[])
    catIds = coco.getCatIds(catNms=['person']) 
    # getImgIds(imgIds=[], catIds=catId
    for imgIds in (range(1, len(os.listdir(img_prefix)) +1)):
        plow_show(imgIds)

到了這里,關于yolov8-pose姿態(tài)估計數(shù)據(jù)集制作(一)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • yolov8+多算法多目標追蹤+實例分割+目標檢測+姿態(tài)估計

    yolov8+多算法多目標追蹤+實例分割+目標檢測+姿態(tài)估計

    YOLOv8是一種先進的目標檢測算法,結合多種算法實現(xiàn)多目標追蹤、實例分割和姿態(tài)估計功能。該算法在計算機視覺領域具有廣泛的應用。 首先,YOLOv8算法采用了You Only Look Once(YOLO)的思想,通過單次前向傳遞將目標檢測問題轉(zhuǎn)化為回歸問題。它使用了深度卷積神經(jīng)網(wǎng)絡,能

    2024年02月20日
    瀏覽(31)
  • YOLOv8 人體姿態(tài)估計(關鍵點檢測) python推理 && ONNX RUNTIME C++部署

    YOLOv8 人體姿態(tài)估計(關鍵點檢測) python推理 && ONNX RUNTIME C++部署

    目錄 ? 1、下載權重 ?編輯2、python 推理 3、轉(zhuǎn)ONNX格式 4、ONNX RUNTIME C++ 部署 utils.h utils.cpp detect.h detect.cpp main.cpp CmakeList.txt 我這里之前在做實例分割的時候,項目已經(jīng)下載到本地,環(huán)境也安裝好了,只需要下載pose的權重就可以 輸出: ? 用netron查看一下: ?如上圖所是,YOLO

    2024年02月07日
    瀏覽(29)
  • YOLOv8的目標對象的分類,分割,跟蹤和姿態(tài)估計的多任務檢測實踐(Netron模型可視化)

    YOLOv8的目標對象的分類,分割,跟蹤和姿態(tài)估計的多任務檢測實踐(Netron模型可視化)

    YOLOv8是目前最新版本,在以前YOLO版本基礎上建立并加入了一些新的功能,以進一步提高性能和靈活性,是目前最先進的模型。YOLOv8旨在快速,準確,易于使用,使其成為廣泛的 目標檢測和跟蹤,實例分割,圖像分類和姿態(tài)估計任務 的絕佳選擇。 YOLOv8的安裝條件 Python=3.8 Py

    2024年02月11日
    瀏覽(25)
  • 人體姿態(tài)估計技術的理解(Human Pose Estimination)

    人體姿態(tài)估計技術的理解(Human Pose Estimination)

    本人畢設題目是人體姿態(tài)估計技術的相關課題,本人按照自己對人體姿態(tài)估計技術的學習和理解進行論述,如有不足,請大家指正?。。?“姿勢估計?……姿勢這個詞對不同的人可能有不同的含義,但我們不是在討論阿諾德的經(jīng)典作品、奧林匹亞或選美表演。那么,姿勢估計

    2024年02月11日
    瀏覽(16)
  • SynergyNet(頭部姿態(tài)估計 Head Pose Estimation)復現(xiàn) demo測試

    SynergyNet(頭部姿態(tài)估計 Head Pose Estimation)復現(xiàn) demo測試

    SynergyNet(github):https://github.com/choyingw/SynergyNet b站:https://www.bilibili.com/video/BV1Ph4y1k7LK/ 我用的AutoDL平臺搭建 選擇鏡像 PyTorch 1.9.0 Python 3.8(ubuntu18.04) Cuda 11.1 安裝其它包: 備注:如果無法下載,就到github中下載壓縮包,然后上傳解壓安裝 或者使用碼云下載: 需要下載如下文件

    2024年02月14日
    瀏覽(19)
  • 計算機視覺算法中的 相機姿態(tài)估計(Camera Pose Estimation)

    目錄 ?編輯引言 相機姿態(tài)估計的基本概念 相機姿態(tài)估計的方法 特征點匹配 直接法 基于深度學習的方法 相機姿態(tài)估計的應用 增強現(xiàn)實(AR) 機器人導航 三維重建 結論 相機姿態(tài)估計是計算機視覺領域的重要任務之一。它涉及到確定相機在三維空間中的位置和朝向,常用于

    2024年02月05日
    瀏覽(22)
  • 3D視覺——1.人體姿態(tài)估計(Pose Estimation)入門——使用MediaPipe含單幀(Signel Frame)與實時視頻(Real-Time Video)

    3D視覺——1.人體姿態(tài)估計(Pose Estimation)入門——使用MediaPipe含單幀(Signel Frame)與實時視頻(Real-Time Video)

    使用MediaPipe工具包進行開發(fā) MediaPipe是一款由Google Research 開發(fā)并開源的多媒體機器學習模型應用框架,用于處理視頻、音頻等時間序列數(shù)據(jù)。這個跨平臺架構使用于桌面/服務器、Android、iOS和嵌入式設備等。 我們使用MeidaPipe下的Solutions(方案特定的模型),共有16個Solutions: 人

    2024年01月18日
    瀏覽(22)
  • YOLOv5姿態(tài)估計:HRnet實時檢測人體關鍵點

    YOLOv5姿態(tài)估計:HRnet實時檢測人體關鍵點

    前言: Hello大家好,我是Dream。 今天來學習一下 利用YOLOv5進行姿態(tài)估計,HRnet與SimDR檢測圖片、視頻以及攝像頭中的人體關鍵點 ,歡迎大家一起前來探討學習~ 首先需要我們利用Pycharm直接克隆github中的姿態(tài)估計原工程文件,如果不知道怎樣在本地克隆Pycharm,可以接著往下看,

    2024年01月17日
    瀏覽(27)
  • YOLOv8 全家桶再迎新成員!新增Pose Estimation模型!

    YOLOv8 全家桶再迎新成員!新增Pose Estimation模型!

    關注公眾號,發(fā)現(xiàn)CV技術之美 不知不覺間,YOLOv8已經(jīng)發(fā)布三個月了,等待中的YOLOv8論文沒來,昨天官方默默又加了新模型:姿態(tài)估計。 說好的\\\"目標檢測\\\"工業(yè)界標桿,正向著“CV全家桶”闊步向前。 現(xiàn)在你可以用YOLOv8做 目標檢測、實例分割、圖像分類、目標跟蹤、姿態(tài)估計

    2024年02月03日
    瀏覽(19)
  • openvino部署yolov8 檢測、分割、分類及姿態(tài)模型實例詳解

    本文重點參考:https://github.com/openvino-book/yolov8_openvino_cpp/tree/main 文中代碼為簡便版本,如果要使用請自行修改并封裝 openvnio部署模型比較方便和簡單,而且不易出錯,就是速度慢了點! 下邊分別給出 部署源碼

    2024年02月16日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包