国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【論文復(fù)現(xiàn)】AB3DMOT: A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics

這篇具有很好參考價(jià)值的文章主要介紹了【論文復(fù)現(xiàn)】AB3DMOT: A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

1. 前言

AB3MOT是經(jīng)典的3D多目標(biāo)跟蹤框架,將2D卡爾曼推廣到了3D,并將2D IOU匹配推廣到了3D。由于論文的原理基本上與2D相同所以作者在文中沒(méi)有敘述很多細(xì)節(jié),要理解具體實(shí)現(xiàn)細(xì)節(jié),只能看代碼。
項(xiàng)目代碼
論文地址

2.環(huán)境配置

anaconda 官網(wǎng)下載
KITTI數(shù)據(jù)集 KITTI這是會(huì)發(fā)現(xiàn)很大如果簡(jiǎn)單測(cè)試可以先不下載,我是先按照README測(cè)試了QuickDemo后,最后測(cè)試的完整數(shù)據(jù)集,因?yàn)樾@網(wǎng)很貴,或者凌晨下載,凌晨不要錢(qián),總之你如果下載數(shù)據(jù)集不方便可以跳過(guò)繼續(xù)看。
ab3dmot,算法學(xué)習(xí),算法,python參考鏈接1:
ubuntu18.04配置AB3DMOT多目標(biāo)跟蹤算法,詳細(xì)配置流程–曖昧的呆呆貓

按照官方README一步一步來(lái),遇到問(wèn)題參考“參考鏈接1”,最后添加環(huán)境變量:

sudo gedit ~/.bashrc
加入
export PYTHONPATH=${PYTHONPATH}:/home/rock/AB3DMOT
export PYTHONPATH=${PYTHONPATH}:/home/rock/AB3DMOT/Xinshuo_PyToolbox
注意rock是我的用戶名字,改成你的,還要注意文件夾結(jié)構(gòu)的對(duì)應(yīng)
source ~/.bashrc

ab3dmot,算法學(xué)習(xí),算法,python

3.QuickDemo

此時(shí)準(zhǔn)備好環(huán)境后直接運(yùn)行QuickDemo會(huì)報(bào)錯(cuò),因?yàn)槲募a存在問(wèn)題,首先是需要OXTS數(shù)據(jù)集文件
ab3dmot,算法學(xué)習(xí),算法,python
KITTI官網(wǎng)下載。并在AB3MOT/data/KITTI/目錄下新建tracking文件夾,此時(shí)提醒你已有文件夾,刪除重建好了,因?yàn)樵嫉膩G失了
ab3dmot,算法學(xué)習(xí),算法,python
將下載好的文件解壓進(jìn)去,最好使用linux的標(biāo)準(zhǔn)的解壓命令Ubuntu 常用解壓與壓縮命令-蕉叉熵
,有時(shí)解壓由于編碼問(wèn)題也會(huì)出現(xiàn)莫名bug.
你可以看到data目錄下有個(gè)mini的文件夾,復(fù)制里面訓(xùn)練集與測(cè)試集的calib與image_02到相應(yīng)的tracking文件夾下ab3dmot,算法學(xué)習(xí),算法,python
此時(shí)運(yùn)行README的QuickDemo還是報(bào)錯(cuò),哎(當(dāng)時(shí)我在想不是吧大佬的代碼這么多bug!!!),后來(lái)我發(fā)現(xiàn)讀懂代碼是復(fù)現(xiàn)大佬代碼的第一道門(mén)檻,嘿嘿
修改代碼,
ab3dmot,算法學(xué)習(xí),算法,python
因?yàn)閙ini數(shù)據(jù)集不全,所以把AB3MOT/AB3MOT_libs/utils.py中驗(yàn)證集的參數(shù)改為
ab3dmot,算法學(xué)習(xí),算法,python
為什么呢,看下圖,因?yàn)閺?fù)制的mini只有這兩個(gè),原始代碼是完整KITTI數(shù)據(jù)集的
ab3dmot,算法學(xué)習(xí),算法,python
此時(shí)運(yùn)行,發(fā)現(xiàn)成功了結(jié)果在AB3MOT/results/KITTI/pointrcnn_val_H1_thres
ab3dmot,算法學(xué)習(xí),算法,python
分別是圖片與視頻,由于圖片很少所以視頻很短,接下來(lái)需要下載KITTI數(shù)據(jù)集,復(fù)現(xiàn)長(zhǎng)的視頻序列。

4.KITTI數(shù)據(jù)集測(cè)試

剛開(kāi)始你會(huì)發(fā)現(xiàn)官網(wǎng)讓你下載完整數(shù)據(jù)集,然后看到數(shù)據(jù)集大小,就勸退了,后來(lái)經(jīng)過(guò)細(xì)細(xì)閱讀代碼,我發(fā)現(xiàn)只需要下載15G的圖像數(shù)據(jù)即可:
ab3dmot,算法學(xué)習(xí),算法,python
ab3dmot,算法學(xué)習(xí),算法,python
并不需要雷達(dá)的35GB除非你想可視化點(diǎn)云的。因此我只下載左相機(jī)的,一定看清楚左相機(jī),數(shù)據(jù)集后面也有描述。漫長(zhǎng)的等待,其實(shí)就是吃了飯的功夫,嘿嘿~
刪除tracking中原先的圖像數(shù)據(jù),解壓新的。剩下的跟QuickDemo的命令一樣,結(jié)果存放位置也一樣。

python3 main.py --dataset KITTI --split val --det_name pointrcnn
python3 scripts/post_processing/trk_conf_threshold.py --dataset KITTI --result_sha pointrcnn_val_H1
python3 scripts/post_processing/visualization.py --result_sha pointrcnn_val_H1_thres --split val

ab3dmot,算法學(xué)習(xí),算法,python
打開(kāi)就是結(jié)果的視頻了,0001.mp4見(jiàn)復(fù)現(xiàn)結(jié)果,接下來(lái)慢慢研究,嘿嘿

復(fù)現(xiàn)結(jié)果

ab3dmot,算法學(xué)習(xí),算法,python
tip:markdown圖片gif居中小技巧
ab3dmot,算法學(xué)習(xí),算法,python
后綴加入#pic_center文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-779385.html

到了這里,關(guān)于【論文復(fù)現(xiàn)】AB3DMOT: A Baseline for 3D Multi-Object Tracking and New Evaluation Metrics的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 3D Gaussian Splatting for Real-Time Radiance Field Rendering論文中代碼復(fù)現(xiàn)及排錯(cuò)過(guò)程

    3D Gaussian Splatting for Real-Time Radiance Field Rendering論文中代碼復(fù)現(xiàn)及排錯(cuò)過(guò)程

    graphdeco-inria/gaussian-splatting: Original reference implementation of “3D Gaussian Splatting for Real-Time Radiance Field Rendering” (github.com) 以下是最初電腦所安裝的內(nèi)容: Anaconda3 2022.10-Windows-x86_64 CUDA 電腦只支持11.6,所以裝的是11.6版本。 使用git去克隆repository 盡管掛了梯子,但是還是需要多次刷

    2024年02月05日
    瀏覽(14)
  • OVRL-V2: A simple state-of-art baseline for IMAGENAV and OBJECTNAV 論文閱讀

    OVRL-V2: A simple state-of-art baseline for IMAGENAV and OBJECTNAV 論文閱讀

    題目 :OVRL-V2: A simple state-of-art baseline for IMAGENAV and OBJECTNAV 作者 :Karmesh Yadav, Arjun Majumdar, Ram Ramrakhya 來(lái)源 :arxiv 時(shí)間 :2023 代碼地址 : https://github.com/ykarmesh/OVRL 我們提出了一個(gè)由與任務(wù)無(wú)關(guān)的組件(ViT、卷積和 LSTM)組成的單一神經(jīng)網(wǎng)絡(luò)架構(gòu),該架構(gòu)在 IMAGENAV(“轉(zhuǎn)到 這

    2024年02月11日
    瀏覽(24)
  • 論文筆記 Spatial-Temporal Identity: A Simple yet Effective Baseline for Multivariate Time Series Forecas

    論文筆記 Spatial-Temporal Identity: A Simple yet Effective Baseline for Multivariate Time Series Forecas

    CIKM 2022 多維時(shí)間序列(Multivariate Time Series, MTS)?最關(guān)鍵的、區(qū)別于其他數(shù)據(jù)的特點(diǎn)是,這些 時(shí)間序列之間存在著明顯的依賴關(guān)系 MTS 預(yù)測(cè)的關(guān)鍵是:對(duì) MTS 的第?i?條時(shí)間序列進(jìn)行預(yù)測(cè)的時(shí)候,不僅要考慮這第?i?條時(shí)間序列的歷史信息,也要考慮其他時(shí)間序列的歷史信息】

    2024年02月02日
    瀏覽(19)
  • 【單目3D目標(biāo)檢測(cè)】SMOKE論文解析與代碼復(fù)現(xiàn)

    【單目3D目標(biāo)檢測(cè)】SMOKE論文解析與代碼復(fù)現(xiàn)

    在正篇之前,有必要先了解一下yacs庫(kù),因?yàn)镾MOKE源碼的參數(shù)配置文件,都是基于yacs庫(kù)建立起來(lái)的,不學(xué)看不懂?。。。。?yacs是一個(gè)用于定義和管理參數(shù)配置的庫(kù)(例如用于訓(xùn)練模型的超參數(shù)或可配置模型超參數(shù)等)。yacs使用yaml文件來(lái)配置參數(shù)。另外,yacs是在py-fast -rcnn和

    2024年02月09日
    瀏覽(49)
  • 【單目3D目標(biāo)檢測(cè)】FCOS3D + PGD論文解析與代碼復(fù)現(xiàn)

    【單目3D目標(biāo)檢測(cè)】FCOS3D + PGD論文解析與代碼復(fù)現(xiàn)

    本文對(duì)OpenMMLab在Monocular 3D detection領(lǐng)域做的兩項(xiàng)工作FCOS3D和PGD(也被稱作FCOS3D++)進(jìn)行介紹。 在此之前,建議大家通過(guò)這篇博客:“3Dfy” A General 2D Detector: 純視覺(jué) 3D 檢測(cè)再思考,來(lái)回顧單目3D目標(biāo)檢測(cè)的更多細(xì)節(jié)。 ? Wang, T, Zhu, X, Pang, J, et al. Fcos3d: Fully convolutional one-stage mono

    2024年02月02日
    瀏覽(74)
  • 最強(qiáng)無(wú)監(jiān)督單目深度估計(jì)Baseline--MonoViT--簡(jiǎn)介與代碼復(fù)現(xiàn)

    最強(qiáng)無(wú)監(jiān)督單目深度估計(jì)Baseline--MonoViT--簡(jiǎn)介與代碼復(fù)現(xiàn)

    ?? 單目深度估計(jì)是指,借助于深度神經(jīng)網(wǎng)絡(luò),從單張輸入視圖中推理場(chǎng)景的稠密深度信息;該技術(shù)可以廣泛用于自動(dòng)駕駛、虛擬現(xiàn)實(shí)、增強(qiáng)現(xiàn)實(shí)等依賴于三維場(chǎng)景感知理解的領(lǐng)域,同時(shí)也可以為其他視覺(jué)任務(wù)提供多模態(tài)深度信息,輔助其他任務(wù)感知的精確性。 ? 由于不需要

    2024年02月03日
    瀏覽(207)
  • 【車間調(diào)度】論文閱讀復(fù)現(xiàn)——effective neighbourhood functions for the flexible job shop problem

    【車間調(diào)度】論文閱讀復(fù)現(xiàn)——effective neighbourhood functions for the flexible job shop problem

    在復(fù)現(xiàn)另一篇文獻(xiàn)An effective hybrid genetic algorithm and tabu search for flexible job shop scheduling problem的算法時(shí),發(fā)現(xiàn)其中的局部搜索使用了k-insertion的鄰域動(dòng)作,于是找到出處:effective neighbourhood functions for the flexible job shop problem。這篇文章主要是對(duì)k-insertion的一些性質(zhì)的解釋與證明,我

    2024年02月03日
    瀏覽(22)
  • 論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO)

    論文復(fù)現(xiàn)--lightweight-human-pose-estimation-3d-demo.pytorch(單視角多人3D實(shí)時(shí)動(dòng)作捕捉DEMO)

    分類:動(dòng)作捕捉 github地址:https://github.com/Daniil-Osokin/lightweight-human-pose-estimation-3d-demo.pytorch 所需環(huán)境: Windows10,conda 4.13.0; 安裝成功 將這tensorRT的三個(gè)文件夾復(fù)制到CUDA下( 記得復(fù)制之前CUDA的原始三個(gè)文件夾做好副本 注意路徑 ) 很奇怪 我的convert_to_trt.py沒(méi)法找到上級(jí)目錄中

    2024年02月10日
    瀏覽(22)
  • 《VM-UNet: Vision Mamba UNet for Medical Image Segmentation》論文閱讀及代碼復(fù)現(xiàn)

    《VM-UNet: Vision Mamba UNet for Medical Image Segmentation》論文閱讀及代碼復(fù)現(xiàn)

    論文地址:[2402.02491] VM-UNet: Vision Mamba UNet for Medical Image Segmentation (arxiv.org) 代碼地址:JCruan519/VM-UNet: (ARXIV24) This is the official code repository for \\\"VM-UNet: Vision Mamba UNet for Medical Image Segmentation\\\". (github.com) 摘要 : 在醫(yī)學(xué)圖像分割領(lǐng)域,基于細(xì)胞神經(jīng)網(wǎng)絡(luò)和基于變換器的模型都得到了廣

    2024年03月24日
    瀏覽(24)
  • 論文閱讀《Hierarchical Aggregation for 3D Instance Segmentation》

    論文閱讀《Hierarchical Aggregation for 3D Instance Segmentation》

    Hierarchical Aggregation for 3D Instance Segmentation是一個(gè)用于實(shí)例分割的方法,他主要利用了點(diǎn)以及點(diǎn)集之間的空間關(guān)系,以此進(jìn)行實(shí)例分割。大概步驟如下: 首先進(jìn)行低帶寬點(diǎn)匯集得到初步的實(shí)例以避免過(guò)度分割 之后進(jìn)行動(dòng)態(tài)帶寬集合匯集以得到完整的實(shí)例 引入實(shí)例內(nèi)網(wǎng)絡(luò)進(jìn)行去

    2024年02月04日
    瀏覽(30)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包