国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

復現(xiàn)經(jīng)典目標跟蹤算法ByteTrack之路:調(diào)通第一個demo

這篇具有很好參考價值的文章主要介紹了復現(xiàn)經(jīng)典目標跟蹤算法ByteTrack之路:調(diào)通第一個demo。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

復現(xiàn)經(jīng)典目標跟蹤算法ByteTrack之路:調(diào)通第一個demo

ByteTrack源論文地址:https://arxiv.org/pdf/2110.06864.pdf

ByteTrack開源代碼地址:https://github.com/ifzhang/ByteTrack

本文在官方給出的配置指南編寫,提供了許多避坑方式。

一、將代碼clone到本地

可直接使用Git clone到本地

git clone https://github.com/ifzhang/ByteTrack.git

也可以使用pycharm自帶的方式直接將代碼clone下來。

二、配置環(huán)境

寫在前面:為了不引起各種版本不適配導致報錯的坑,強烈建議不要按照官方給出的步驟,直接寫

pip3 install -r requirements.txt

可以按照下述步驟進行。

1、創(chuàng)建虛擬環(huán)境

打開anaconda prompt 輸入

conda create -n 環(huán)境名 python=X.X

此處python建議使用3.7及以上版本(高版本的pytorch已不再支持python3.6及以下版本)

為方便后續(xù)演示,給出我建立虛擬環(huán)境命令如下:

conda create -n byte_track python=3.7

激活虛擬環(huán)境:

activate byte_track

2、快速安裝pytorch一家

如果使用官方給出的安裝方式可能會出現(xiàn)如下兩個問題:第一,安裝速度過慢;第二,安裝完成后,torch.cuda.is_available()為False。因此,給出如下安裝步驟:

第一步:打開cmd,輸入nvidia-smi
bytetrack復現(xiàn),深度學習算法復現(xiàn),目標跟蹤,算法,python

如圖,我本機安裝的是cuda11.6

第二步:打開鏈接https://download.pytorch.org/whl/torch_stable.html 找到自己需要的版本

bytetrack復現(xiàn),深度學習算法復現(xiàn),目標跟蹤,算法,python

例如,我的環(huán)境為Windows,cuda版本為11.6,python版本為3.7。那就選擇如圖所示的版本的torch、torchvision和torchaudio。點擊即可下載。

第三步,打開anaconda prompt

activate byte_track

cd 下載目錄

pip install XXX.whl(XXX為torch文件名)

pip install XXX.whl(XXX為torchvision文件名)

pip install XXX.whl(XXX為torchaudio文件名)

下載完成后,輸入python激活python環(huán)境

輸入如下代碼

bytetrack復現(xiàn),深度學習算法復現(xiàn),目標跟蹤,算法,python

結果若為true,則安裝成功

3、安裝requirements.txt中的剩余包

由于已安裝部分包,且有一些包已更新(當前時間:2022-09-18)先修改項目文件夾中requirements.txt如下

# TODO: Update with exact module version
numpy
opencv_python
loguru
scikit-image
tqdm
Pillow
thop
ninja
tabulate
tensorboard
lap
motmetrics
filterpy
h5py

# verified versions
onnx==1.8.1
onnxruntime-gpu
onnx-simplifier==0.3.5

然后在anaconda prompt中cd到項目目錄

輸入

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt

4、python3 setup.py develop

先更改setup.py文件

with open("README.md", "r") as f:
修改為
with open("README.md", "r", encoding='utf-8') as f:

cd到項目所在目錄 輸入python3 setup.py develop即可

5、安裝pycocotools

先安裝cpython

pip install cython -i https://pypi.tuna.tsinghua.edu.cn/simple/

下一步如使用官方給出的方式安裝pycocotools可能會出現(xiàn)報錯,可以根據(jù)如下方式安裝

該部分參考https://blog.csdn.net/weixin_46961200/article/details/124344341

1)在https://github.com/pdollar/coco.git下載源碼壓縮包,解壓后放在site-packages文件下,具體路徑可參考我的:D:\MyEnvironment\Anaconda3\envs\byte_track\Lib\site-packages

2)打開cocoapi-master\pythonAPI中的setup.py文件,刪除下面的兩個參數(shù):

bytetrack復現(xiàn),深度學習算法復現(xiàn),目標跟蹤,算法,python

3)在anaconda prompt中cd到剛才的cocoapi-master\pythonAPI文件夾下,可參考我的路徑:D:\MyEnvironment\Anaconda3\envs\byte_track\Lib\site-packages\cocoapi-master\PythonAPI輸入

python setup.py build_ext --inplace
python setup.py build_ext install

第一步顯示“已完成代碼的生成”即成功;第二部顯示"Finished processing dependencies for pycocotools==2.0"即成功。

6、安裝cython_bbox

按照官方方式仍然是會報錯,可根據(jù)下述步驟安裝

該部分參考https://blog.csdn.net/JackyAce6880/article/details/123751018

1)下載源碼

鏈接:https://pan.baidu.com/s/1uYC6qhZ0eWjIenOBdoyLtQ
提取碼:fef4

解壓后放在site-packages文件下(site-packages文件夾位置與上一步相同)

2)更改setup.py文件

打開文件夾內(nèi)setup.py文件,將第31行,extra_compile_args=[‘-Wno-cpp’] 修改為 extra_compile_args = {‘gcc’: [‘/Qstd=c99’]}

打開anaconda prompt 執(zhí)行

python setup.py build_ext install

最終顯示Finished processing dependencies for cython-bbox==0.1.3即成功

至此,環(huán)境已配置完成!

三、跑通第一個Demo

下載預訓練模型,可通過我的網(wǎng)盤下載,下載鏈接如下:

鏈接:https://pan.baidu.com/s/1qwecLD57quI__l6_91gvhA
提取碼:zmqn

將下載下來的文件放在項目文件夾 pretrained文件夾下

cd到項目文件夾,輸入

python tools/demo_track.py video -f exps/example/mot/yolox_x_mix_det.py -c pretrained/bytetrack_x_mot17.pth.tar --fp16 --fuse --save_result

即可開始運行,運行結果會自動放入ByteTrack\YOLOX_outputs\yolox_x_mix_det\track_vis文件夾中

至此,ByteTrack的第一個Demo已完成。

四、結語

目前只是用預訓練模型跑通第一個Demo,后續(xù)訓練過程和多類別目標跟蹤,以及使用其他目標檢測網(wǎng)絡的版本將持續(xù)更新,敬請期待…

參考

https://blog.csdn.net/JackyAce6880/article/details/123751018
https://blog.csdn.net/weixin_46961200/article/details/124344341
https://www.ngui.cc/51cto/show-544748.html?action=onClick文章來源地址http://www.zghlxwxcb.cn/news/detail-845081.html

到了這里,關于復現(xiàn)經(jīng)典目標跟蹤算法ByteTrack之路:調(diào)通第一個demo的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 【MOT】目標追蹤DeepSORT與ByteTrack

    【MOT】目標追蹤DeepSORT與ByteTrack

    匹配算法: SORT算法: Kalman濾波, 匈牙利算法(匹配算法), 馬氏距離(損失指標); Kalman濾波是通過對上一幀每個檢測對象進行預測,得到一個BBox_predicted,然后再將predicted與當前幀的檢測對象BBox_measure進行匹配,這樣的話就能固定ID了; 如果不用Kalman濾波,將當前幀的BBox_m

    2023年04月25日
    瀏覽(21)
  • 【目標跟蹤算法】Strong SORT多目標跟蹤模型論文解析+代碼詳解

    【目標跟蹤算法】Strong SORT多目標跟蹤模型論文解析+代碼詳解

    1. Strong SORT算法的背景和概述 Strong SORT算法基于經(jīng)典的Deep SORT模型,并從目標檢測模型、表征特征模型和匹配算法等各個方面對其進行了升級優(yōu)化。 1.1 表觀特征分支的優(yōu)化算法 對于Strong SORT算法的表觀特征分支部分,主要是進行了2方面的優(yōu)化,一是優(yōu)化了特征提取器的能力

    2024年02月12日
    瀏覽(21)
  • 【多目標追蹤算法】多目標跟蹤評價指標

    【多目標追蹤算法】多目標跟蹤評價指標

    yolov5+deepsort 多目標跟蹤算法實踐 評價指標總覽: 這種指標可以衡量算法跟蹤目標的準確性。IDsw (ID switches)度量用于統(tǒng)計MOT算法在對象之間切換的次數(shù)。多目標跟蹤精度(MOTA)指標將假陽性率、假陰性率和錯配率組合成一個數(shù)字,為整體跟蹤性能提供一個相當合理的數(shù)量。盡管

    2024年02月04日
    瀏覽(23)
  • 【FPGA目標跟蹤】基于FPGA的幀差法和SAD匹配算法的目標跟蹤實現(xiàn)

    【FPGA目標跟蹤】基于FPGA的幀差法和SAD匹配算法的目標跟蹤實現(xiàn)

    quartusii12.1 FPGA整體的算法流程如下圖所示: ?FPGA的模塊主要包括如下幾大模塊: 攝像機驅(qū)動程序,SDRAM控制程序,顯示屏驅(qū)動程序,中值濾波程序,幀差法模塊,SAD模板匹配模塊,跟蹤定位模塊等等。 跟蹤模塊頂層程序 幀差法模塊 SAD模板匹配模塊,R通道 SAD模板匹配模塊,

    2024年02月04日
    瀏覽(47)
  • 目標跟蹤——SORT算法原理淺析

    目標跟蹤——SORT算法原理淺析

    目標跟蹤——SORT算法原理淺析 目標跟蹤——Deep Sort算法原理淺析 基于yolov5與Deep Sort的流量統(tǒng)計與軌跡跟蹤 Simple Online and Realtime Tracking(SORT)是一個非常簡單、有效、實用的多目標跟蹤算法。在SORT中,僅僅通過IOU來進行匹配雖然速度非??欤荌D switch依然非常嚴重。 SORT最大

    2024年02月06日
    瀏覽(20)
  • 經(jīng)典目標檢測YOLO系列(二)YOLOV2的復現(xiàn)(1)總體網(wǎng)絡架構及前向推理過程

    經(jīng)典目標檢測YOLO系列(二)YOLOV2的復現(xiàn)(1)總體網(wǎng)絡架構及前向推理過程

    和之前實現(xiàn)的YOLOv1一樣,根據(jù) 《YOLO目標檢測》(ISBN:9787115627094) 一書,在不脫離YOLOv2的大部分核心理念的前提下,重構一款較新的YOLOv2檢測器,來對YOLOV2有更加深刻的認識。 書中源碼連接: RT-ODLab: YOLO Tutorial 對比原始YOLOV2網(wǎng)絡,主要改進點如下: 添加了后續(xù)YOLO中使用的neck,

    2024年01月18日
    瀏覽(21)
  • 基于深度學習的多目標跟蹤算法

    基于深度學習的多目標跟蹤算法

    基于深度學習的多目標跟蹤(MOT,Multi-Object Tracking)算法在近年來取得了顯著的進步。這些算法主要利用深度學習模型對視頻中的多個目標進行檢測和跟蹤。 在介紹一些常見的深度學習多目標跟蹤算法之前,我們首先了解一下其基本概念和挑戰(zhàn): 目標檢測 :首先識別視頻幀

    2024年01月23日
    瀏覽(19)
  • 經(jīng)典目標檢測YOLO系列(二)YOLOV2的復現(xiàn)(2)正樣本的匹配、損失函數(shù)的實現(xiàn)及模型訓練

    經(jīng)典目標檢測YOLO系列(二)YOLOV2的復現(xiàn)(2)正樣本的匹配、損失函數(shù)的實現(xiàn)及模型訓練

    我們在之前實現(xiàn)YOLOv1的基礎上,加入了先驗框機制,快速的實現(xiàn)了YOLOv2的網(wǎng)絡架構,并且實現(xiàn)了前向推理過程。 經(jīng)典目標檢測YOLO系列(二)YOLOV2的復現(xiàn)(1)總體網(wǎng)絡架構及前向推理過程 如前所述,我們使用基于先驗框的正樣本匹配策略。 由于每個網(wǎng)格只輸出一個邊界框,因此在

    2024年01月19日
    瀏覽(90)
  • DeepSORT多目標跟蹤——算法流程與源碼解析

    DeepSORT多目標跟蹤——算法流程與源碼解析

    1. 目標檢測 在目標檢測任務中,主要目標是識別圖像或視頻幀中存在的物體的位置和類別信息。這意味著目標檢測算法需要定位物體的邊界框(Bounding Box)并確定每個邊界框內(nèi)的物體屬于哪個類別(如人、汽車、狗等)。目標檢測通常獨立地處理每一幀圖像,不考慮目標在不

    2024年04月13日
    瀏覽(27)
  • 【老生談算法】基于matlab的運動目標識別與跟蹤系統(tǒng)設計與算法原理及程序源碼——目標識別算法

    【老生談算法】基于matlab的運動目標識別與跟蹤系統(tǒng)設計與算法原理及程序源碼——目標識別算法

    大家好,今天給大家介紹基于matlab的運動目標的監(jiān)測與跟蹤系統(tǒng)設計與原理。 視頻圖像分析主要是對運動圖像序列進行分析處理,它通常涉及到運動檢測、目標分類、目標跟蹤及行為理解與描述幾個過程。其中,運動目標檢測與跟蹤處于整個視覺監(jiān)視系統(tǒng)的最底層,是視頻圖

    2024年02月13日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包