国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking

這篇具有很好參考價(jià)值的文章主要介紹了[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。


論文地址: https://arxiv.org/pdf/2303.10404.pdf
代碼: 未開源

目前是MOT20的第二名


1. Abstract

這篇文章著力于解決長時(shí)跟蹤的問題. 當(dāng)前大多數(shù)方法只能依靠Re-ID特征來進(jìn)行長時(shí)跟蹤, 也就是軌跡長期丟失后的再識(shí)別. 然而, Re-ID特征并不總是有效的. 尤其是在擁擠和極度遮擋的情況下. 為此, 這篇文章提出了MotionTrack, 包括兩個(gè)方面:

  1. 設(shè)計(jì)了一個(gè)交互模塊(Interaction Module), 來學(xué)習(xí)短軌跡之間的相互作用. 簡(jiǎn)單來說, 就是根據(jù)目標(biāo)相鄰兩幀的的偏移, 計(jì)算出一個(gè)表征目標(biāo)之間相互影響的矩陣, 隨后利用該矩陣經(jīng)過一個(gè)GCN和MLP來直接得到目標(biāo)的預(yù)測(cè)位置(代替Kalman濾波).
  2. 設(shè)計(jì)了一個(gè)恢復(fù)模塊(Refined Module), 用來拼接碎片化的軌跡. 對(duì)于沒有匹配成功的檢測(cè)和丟失的軌跡, 計(jì)算他們之間的速度-時(shí)間關(guān)系, 并保留匹配程度高的組合.

2. Introduction

MOT的范式有兩種(當(dāng)然不完全是這兩種), 一是tracking-by-detection, 二是tracking-by-regression. 前者是根據(jù)檢測(cè)器的結(jié)果, 將檢測(cè)與軌跡做關(guān)聯(lián); 而后者往往是檢測(cè)器提供檢測(cè)結(jié)果之外, 還預(yù)測(cè)目標(biāo)的偏移(比如CenterTrack), 也就是直接回歸得到目標(biāo)的新位置, 這樣就不需要額外的關(guān)聯(lián)過程. 本文的方法是tracking-by-detection的方法.

不論哪種范式, 都需要處理短時(shí)和長時(shí)關(guān)聯(lián)的問題. 對(duì)于短時(shí)關(guān)聯(lián), 往往是提取目標(biāo)的運(yùn)動(dòng)或者外觀特征. 但是作者認(rèn)為在擁擠密集的場(chǎng)景中這樣性能有限. 主要的原因是bbox太小, 提取的特征有限, 而且在密集場(chǎng)景中目標(biāo)運(yùn)動(dòng)也是很復(fù)雜的. 對(duì)于長時(shí)關(guān)聯(lián), 如果依靠Re-ID特征去關(guān)聯(lián), 則同樣有分辨率低等等問題, 如果像MeMOT這種采用記憶庫的方式, 則有些耗時(shí).

為此, 作者提出了MotionTrack, 對(duì)于短時(shí)關(guān)聯(lián), 學(xué)習(xí)目標(biāo)之間的交互作用, 來預(yù)測(cè)擁擠場(chǎng)景下的復(fù)雜運(yùn)動(dòng). 對(duì)于長時(shí)關(guān)聯(lián), 將軌跡的歷史信息和當(dāng)前的檢測(cè)進(jìn)行相關(guān)計(jì)算, 隨后利用當(dāng)前檢測(cè)再對(duì)軌跡進(jìn)行修正.

3. Method

下面對(duì)文章解決短時(shí)和長時(shí)關(guān)聯(lián)的兩個(gè)創(chuàng)新點(diǎn)逐一介紹.

3.1 短時(shí)關(guān)聯(lián)–Interaction Module

假設(shè)第 t t t幀, 我們有檢測(cè)集合 D t \mathcal{D}^t Dt, 現(xiàn)有軌跡集合為 T \mathbb{T} T, 共有 M M M個(gè)軌跡, 其中有 S S S個(gè)標(biāo)記為丟失的軌跡, 集合為 T l o s t \mathbb{T}^{lost} Tlost. 我們計(jì)算 M M M個(gè)軌跡在第 t ? 2 t-2 t?2 t ? 1 t-1 t?1幀的偏移量 O t ∈ R M × 4 \mathcal{O}^t\in\mathbb{R}^{M\times 4} OtRM×4, 每一行分別表示中心點(diǎn)xy和高寬的偏移量. 隨后我們將偏移量和絕對(duì)位置坐標(biāo)concat起來, 得到 I t ∈ R M × 8 I^t\in\mathbb{R}^{M\times 8} ItRM×8.

隨后, 我們利用自注意力機(jī)制, 得到每個(gè)軌跡之間運(yùn)動(dòng)的影響, 如下式所示:

[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking,讀文獻(xiàn),MOT,多目標(biāo)跟蹤,論文閱讀,深度學(xué)習(xí),機(jī)器學(xué)習(xí),目標(biāo)跟蹤,人工智能
其中 W W W代表權(quán)重, d d d是維數(shù). 這個(gè)與Transformer里的自注意力是基本相似的.

于是我們得到了注意力矩陣 A a t t e ∈ R M × M A^{atte}\in\mathbb{R}^{M\times M} AatteRM×M, 這個(gè)矩陣中的每個(gè)元素表示的就是兩個(gè)軌跡間運(yùn)動(dòng)趨勢(shì)的影響程度.

這其實(shí)是社會(huì)力模型的一種表示, 傳統(tǒng)的社會(huì)力模型是手工設(shè)計(jì)特征, 本文(以及后期的多數(shù)方法)都是用深度學(xué)習(xí)的方式直接學(xué)習(xí).

為了更好地表示群體行為, 作者采用非對(duì)稱卷積(簡(jiǎn)單來說, 就是采用 1 × n 1\times n 1×n或者 n × 1 n\times 1 n×1的卷積核). 因?yàn)樵谶@個(gè)問題中, 采用這樣的卷積核代表的可以是一些軌跡對(duì)一個(gè)軌跡的影響, 也就是群體建模了. 這一步的公式如下:

[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking,讀文獻(xiàn),MOT,多目標(biāo)跟蹤,論文閱讀,深度學(xué)習(xí),機(jī)器學(xué)習(xí),目標(biāo)跟蹤,人工智能
隨后, 我們只保留大于 ξ \xi ξ的元素, 如下所示:

[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking,讀文獻(xiàn),MOT,多目標(biāo)跟蹤,論文閱讀,深度學(xué)習(xí),機(jī)器學(xué)習(xí),目標(biāo)跟蹤,人工智能

其中 s g n sgn sgn是符號(hào)函數(shù), 圓圈加點(diǎn)是Hadamard積, 也就是逐元素乘積.

最后, 我們利用偏移量 O t O^t Ot, 和表示軌跡間相互影響的矩陣 A a d j c A^{adjc} Aadjc輸入到一個(gè)GCN和MLP后預(yù)測(cè)當(dāng)前幀的偏移量:

[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking,讀文獻(xiàn),MOT,多目標(biāo)跟蹤,論文閱讀,深度學(xué)習(xí),機(jī)器學(xué)習(xí),目標(biāo)跟蹤,人工智能
其中 W G W^G WG是圖網(wǎng)絡(luò)的權(quán)重.

3.2 長時(shí)關(guān)聯(lián)–Refined Module

我們將預(yù)測(cè)的軌跡的位置和檢測(cè)進(jìn)行IoU匹配(最簡(jiǎn)單的匹配方式), 如果匹配完, 還有 U U U個(gè)檢測(cè)和 S S S個(gè)軌跡沒有匹配, 則進(jìn)入到Refined Module模塊.具體地, 剩余的檢測(cè)集合記為 D r e s t ∈ R U × 5 D^{rest}\in\mathbb{R}^{U\times 5} DrestRU×5, 5表示的分別是時(shí)間和 x y w h xywh xywh坐標(biāo). 我們保留30幀歷史軌跡的信息, 因此仍未匹配的軌跡集合記為 T l o s t ∈ R S × 30 × 5 T^{lost}\in\mathbb{R}^{S\times 30 \times 5} TlostRS×30×5, 我們對(duì)于 T l o s t T^{lost} Tlost的第二維和第三維分別采用非對(duì)稱卷積, 得到新的特征, 如下:

[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking,讀文獻(xiàn),MOT,多目標(biāo)跟蹤,論文閱讀,深度學(xué)習(xí),機(jī)器學(xué)習(xí),目標(biāo)跟蹤,人工智能

對(duì)第二維采用卷積的意義是對(duì)于每個(gè)軌跡, 學(xué)習(xí)時(shí)間維上的關(guān)聯(lián); 對(duì)第三維采用卷積的意義是對(duì)不同軌跡, 學(xué)習(xí)位置間的影響.

隨后對(duì)于檢測(cè), 將當(dāng)前位置和最后一次的位置concat起來, 變成 D r e s t ^ ∈ R U × 10 \hat{D^{rest}}\in\mathbb{R}^{U \times 10} Drest^RU×10, 隨后將10升維成D:

[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking,讀文獻(xiàn),MOT,多目標(biāo)跟蹤,論文閱讀,深度學(xué)習(xí),機(jī)器學(xué)習(xí),目標(biāo)跟蹤,人工智能
其中 F d e t e ∈ R U × D F^{dete}\in\mathbb{R}^{U \times D} FdeteRU×D

有一個(gè)疑問: 還沒有匹配, 怎么確定檢測(cè)的最后一次的位置是什么?

隨后將 F d e t e F^{dete} Fdete F t r a j F^{traj} Ftraj結(jié)合起來, 變成 F ∈ R S × U × 2 D F\in\mathbb{R}^{S \times U \times 2D} FRS×U×2D, 這樣我們對(duì)第三維做MLP+sigmoid, 就可以得到軌跡和檢測(cè)之間的相似度得分(相關(guān)度) C c o r r ∈ R S × U C^{corr}\in\mathbb{R}^{S \times U} CcorrRS×U, 之后將 C c o r r C^{corr} Ccorr作為代價(jià)矩陣, 用貪心算法就可以得到匹配.

得到匹配后, 我們要利用現(xiàn)有的檢測(cè)來修正丟失軌跡的位置, 采用簡(jiǎn)單的線性模型即可:

[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking,讀文獻(xiàn),MOT,多目標(biāo)跟蹤,論文閱讀,深度學(xué)習(xí),機(jī)器學(xué)習(xí),目標(biāo)跟蹤,人工智能

3.3 整體流程

再看下面的流程圖, 就比較明了了:

[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking,讀文獻(xiàn),MOT,多目標(biāo)跟蹤,論文閱讀,深度學(xué)習(xí),機(jī)器學(xué)習(xí),目標(biāo)跟蹤,人工智能

3.4 訓(xùn)練

以前做筆記, 不注重是怎么訓(xùn)練的, 其實(shí)這是很重要的一部分…

對(duì)于Interaction Module, 根據(jù)預(yù)測(cè)出的偏移量計(jì)算絕對(duì)坐標(biāo), 并采用IoU損失:

[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking,讀文獻(xiàn),MOT,多目標(biāo)跟蹤,論文閱讀,深度學(xué)習(xí),機(jī)器學(xué)習(xí),目標(biāo)跟蹤,人工智能
具體地, 采用相鄰的三幀作為一個(gè)sample, 前兩幀是網(wǎng)絡(luò)的輸入, 預(yù)測(cè)出的第三幀位置用來計(jì)算損失.

對(duì)于Refined Module, 對(duì)所有的真值軌跡進(jìn)行提取, 并且隨機(jī)進(jìn)行兩兩組合, 一種組合方式作為一個(gè)訓(xùn)練集, 然后對(duì)軌跡和檢測(cè)進(jìn)行采樣, 看看這個(gè)網(wǎng)絡(luò)預(yù)測(cè)出的檢測(cè)是否屬于該軌跡. 這是個(gè)分類問題, 因此采用交叉熵?fù)p失:

[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking,讀文獻(xiàn),MOT,多目標(biāo)跟蹤,論文閱讀,深度學(xué)習(xí),機(jī)器學(xué)習(xí),目標(biāo)跟蹤,人工智能

4. 效果與評(píng)價(jià)

[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking,讀文獻(xiàn),MOT,多目標(biāo)跟蹤,論文閱讀,深度學(xué)習(xí),機(jī)器學(xué)習(xí),目標(biāo)跟蹤,人工智能
總體來說, 效果確實(shí)是很好的.

這篇文章比較"大力出奇跡", 堆了self-attention, 堆了GCN, 也用了相關(guān)運(yùn)算這種在MOT里也比較慣常的做法, 亮點(diǎn)是從社會(huì)力模型的角度講故事, 而且用網(wǎng)絡(luò)代替Kalman預(yù)測(cè)位置也許具有更好的效果.文章來源地址http://www.zghlxwxcb.cn/news/detail-597527.html

到了這里,關(guān)于[論文閱讀筆記20]MotionTrack: Learning Robust Short-term and Long-term Motions for Multi-Object Tracking的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Privacy-Preserving Byzantine-Robust Federated Learning via Blockchain Systems論文筆記

    Privacy-Preserving Byzantine-Robust Federated Learning via Blockchain Systems論文筆記

    總述:本文提出了一種PBFL的方案,可以用來驗(yàn)證用戶上傳的梯度信息(主要使用到的是余弦相似性),過濾惡意用戶的梯度;并且可以防止服務(wù)器的單點(diǎn)故障,利用區(qū)塊鏈?zhǔn)沟脜f(xié)議的執(zhí)行更加的透明。 本文的主要貢獻(xiàn):因?yàn)橹笆褂玫耐瑧B(tài)加密方案存在低效的問題(具體而

    2024年01月22日
    瀏覽(46)
  • 論文筆記:Privacy-Preserving Byzantine-Robust Federated Learning via Blockchain Systems

    論文筆記:Privacy-Preserving Byzantine-Robust Federated Learning via Blockchain Systems

    會(huì)議來源:IEEE TRANSACTIONS ON INFORMA TION FORENSICS AND SECURITY , VOL. 17, 2022 1.分布式機(jī)器學(xué)習(xí)在海量數(shù)據(jù)上實(shí)現(xiàn)了更大模型的訓(xùn)練,但仍然容易受到安全和隱私泄露的影響 2.保護(hù)隱私的聯(lián)邦學(xué)習(xí)方案之一是使用同態(tài)加密方案(如Paillier),對(duì)局部梯度進(jìn)行加密,但局部梯度難以計(jì)算和傳輸

    2024年02月04日
    瀏覽(19)
  • Cross-Drone Transformer Network for Robust Single Object Tracking論文閱讀筆記

    Cross-Drone Transformer Network for Robust Single Object Tracking論文閱讀筆記

    無人機(jī)在各種應(yīng)用中得到了廣泛使用,例如航拍和軍事安全,這得益于它們與固定攝像機(jī)相比的高機(jī)動(dòng)性和廣闊視野。多 無人機(jī)追蹤系統(tǒng)可以通過從不同視角收集互補(bǔ)的視頻片段 ,為目標(biāo)提供豐富的信息,特別是當(dāng)目標(biāo)在某些視角中被遮擋或消失時(shí)。然而,在多無人機(jī)視覺

    2024年01月25日
    瀏覽(23)
  • 【論文閱讀筆記】4篇Disentangled representation learning用于圖像分割的論文

    【論文閱讀筆記】4篇Disentangled representation learning用于圖像分割的論文

    4篇應(yīng)用解耦表示學(xué)習(xí)的文章,這里只關(guān)注如何解耦,更多細(xì)節(jié)不關(guān)注,簡(jiǎn)單記錄一下。 Chen C, Dou Q, Jin Y, et al. Robust multimodal brain tumor segmentation via feature disentanglement and gated fusion[C]//Medical Image Computing and Computer Assisted Intervention–MICCAI 2019: 22nd International Conference, Shenzhen, China, O

    2024年01月17日
    瀏覽(37)
  • 【論文閱讀筆記】Contrastive Learning with Stronger Augmentations

    基于提供的摘要,該論文的核心焦點(diǎn)是在對(duì)比學(xué)習(xí)領(lǐng)域提出的一個(gè)新框架——利用強(qiáng)數(shù)據(jù)增強(qiáng)的對(duì)比學(xué)習(xí)(Contrastive Learning with Stronger Augmentations,簡(jiǎn)稱CLSA)。以下是對(duì)摘要的解析: 問題陳述: 表征學(xué)習(xí)(representation learning)已在對(duì)比學(xué)習(xí)方法的推動(dòng)下得到了顯著發(fā)展。 當(dāng)前

    2024年02月19日
    瀏覽(26)
  • 【論文閱讀筆記】 Representation Learning with Contrastive Predictive Coding

    【論文閱讀筆記】 Representation Learning with Contrastive Predictive Coding

    這段文字是論文的摘要,作者討論了監(jiān)督學(xué)習(xí)在許多應(yīng)用中取得的巨大進(jìn)展,然而無監(jiān)督學(xué)習(xí)并沒有得到如此廣泛的應(yīng)用,仍然是人工智能中一個(gè)重要且具有挑戰(zhàn)性的任務(wù)。在這項(xiàng)工作中,作者提出了一種通用的無監(jiān)督學(xué)習(xí)方法,用于從高維數(shù)據(jù)中提取有用的表示,被稱為“

    2024年01月25日
    瀏覽(26)
  • Learning Sample Relationship for Exposure Correction 論文閱讀筆記

    Learning Sample Relationship for Exposure Correction 論文閱讀筆記

    這是中科大發(fā)表在CVPR2023的一篇論文,提出了一個(gè)module和一個(gè)損失項(xiàng),能夠提高現(xiàn)有exposure correction網(wǎng)絡(luò)的性能。這已經(jīng)是最近第三次看到這種論文了,前兩篇分別是CVPR2022的ENC(和這篇文章是同一個(gè)一作作者)和CVPR2023的SKF,都是類似即插即用地提出一些模塊來提高現(xiàn)有方法的

    2024年02月07日
    瀏覽(20)
  • DBA: DISTRIBUTED BACKDOOR ATTACKS AGAINST FEDERATED LEARNING 論文閱讀筆記

    DBA: DISTRIBUTED BACKDOOR ATTACKS AGAINST FEDERATED LEARNING 論文閱讀筆記

    ? 目錄 摘要 一、引言 1.背景(介紹聯(lián)邦學(xué)習(xí)的出現(xiàn),同時(shí)引出挑戰(zhàn)) 2.研究現(xiàn)狀 3.提出方法 4.貢獻(xiàn)總結(jié) 二、DBA方法介紹 1.總體框架 2.DBA 3.DBA的觸發(fā)因素 三、實(shí)驗(yàn) 1.數(shù)據(jù)集和實(shí)驗(yàn)設(shè)置 2.分布式后門攻擊VS集中式后門攻擊 3.實(shí)驗(yàn)準(zhǔn)備 4.實(shí)驗(yàn)結(jié)果 5.分布式攻擊的魯棒性 6.通過特征

    2024年01月24日
    瀏覽(22)
  • 《Learning to Reweight Examples for Robust Deep Learning》筆記

    [1] 用 meta-learning 學(xué)樣本權(quán)重,可用于 class imbalance、noisy label 場(chǎng)景。之前對(duì)其 (7) 式中 ? i , t = 0 epsilon_{i,t}=0 ? i , t ? = 0 ( 對(duì)應(yīng) Algorithm 1 第 5 句、代碼 ex_wts_a = tf.zeros([bsize_a], dtype=tf.float32) )不理解:如果 ? epsilon ? 已知是 0,那 (4) 式的加權(quán) loss 不是恒為零嗎?(5) 式不是

    2024年01月23日
    瀏覽(28)
  • 【圖像修復(fù)】論文閱讀筆記 ----- 《Image inpainting based on deep learning: A review》

    【圖像修復(fù)】論文閱讀筆記 ----- 《Image inpainting based on deep learning: A review》

    原文下載鏈接1:https://www.sciencedirect.com/science/article/abs/pii/S0141938221000391 原文下載鏈接2:http://s.dic.cool/S/KSS4D4LC 本篇論文綜述發(fā)表于2021年。文章總結(jié)了基于深度學(xué)習(xí)的不同類型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的修復(fù)方法,然后分析和研究了重要的技術(shù)改進(jìn)機(jī)制;從模型網(wǎng)絡(luò)結(jié)構(gòu)和恢復(fù)方法等方

    2024年02月01日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包