国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

CVPR2023新作:3D視頻物體檢測(cè)

這篇具有很好參考價(jià)值的文章主要介紹了CVPR2023新作:3D視頻物體檢測(cè)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

  1. Title: 3D Video Object Detection With Learnable Object-Centric Global Optimization

  2. Affiliation: 中國科學(xué)院自動(dòng)化研究所 (Institute of Automation, Chinese Academy of Sciences),中國科學(xué)院大學(xué)人工智能學(xué)院 (School of Artificial Intelligence, University of Chinese Academy of Sciences),香港中文大學(xué)人工智能與機(jī)器人中心 (Centre for Artificial Intelligence and Robotics, HKISI CAS),TuSimple

  3. Authors: Jiawei He, Yuntao Chen, Naiyan Wang, Zhaoxiang Zhang

  4. Keywords: 3D video object detection, correspondence-based optimization, object-centric, bundle adjustment

  5. Summary:

  • (1): 本文研究的是3D視頻物體檢測(cè),探索長期時(shí)間上的視覺對(duì)應(yīng)優(yōu)化。而對(duì)于運(yùn)動(dòng)物體的檢測(cè),基于對(duì)應(yīng)的優(yōu)化在3D場(chǎng)景重建時(shí)很少被研究,因?yàn)橐苿?dòng)的物體違反了多視角幾何約束,被視為離群值。本文有針對(duì)地解決了這個(gè)問題,突破了現(xiàn)有方法的局限性,做到了對(duì) 靜態(tài)物體和動(dòng)態(tài)物體的統(tǒng)一處理。

  • (2): 目前的 3D視頻物體檢測(cè)方法可分為三類。第一類采用對(duì)象跟蹤,但這種方法只是將檢測(cè)的結(jié)果進(jìn)行光滑處理,沒有利用視頻豐富的暗示信息。 第二類是采用了包括對(duì) BEV (Bird’s- Eye View) ,multi-frame temporal cross-attention等技術(shù)的綜合性方案,但同樣忽略了顯式的時(shí)間上的對(duì)應(yīng)關(guān)系。第三類是從 stereo-from-video角度出發(fā)進(jìn)行研究,但還是沒有考慮相對(duì)于時(shí)間較長的情況。本文提出的方法不僅突破了上述方法的局限性,而且創(chuàng)新性地解決了運(yùn)動(dòng)物體和靜止物體的處理問題,使得這個(gè)方法更加具有普適性和魯棒性。

  • (3): 本文提出了一個(gè)端到端的優(yōu)化目標(biāo)檢測(cè)器BA-Det,它實(shí)現(xiàn)了可學(xué)習(xí)的物體中心時(shí)空對(duì)應(yīng)關(guān)系和特征度量型物體綁定調(diào)整,針對(duì)動(dòng)態(tài)物體和靜態(tài)物體對(duì)應(yīng)關(guān)系引入了不同的約束。此外,該算法的優(yōu)化是一個(gè)非線性最小二乘優(yōu)化問題,可以使得模型非常適合于對(duì)應(yīng)在大規(guī)模的數(shù)據(jù)集上進(jìn)行訓(xùn)練。

  • (4): 在大量的實(shí)驗(yàn)中,BA-Det算法的成功應(yīng)用使得其在相應(yīng)的3D檢測(cè)任務(wù)上取得了最先進(jìn)的水平,并且在瓶頸部位的時(shí)間、空間參數(shù)提升也非常顯著。相比較于其他方法,BA-Det在計(jì)算資源上的開銷較低,因此具有一定的推廣價(jià)值。

  1. Methods:
  • (1): 本文提出一種名為BA-Det的端到端物體優(yōu)化檢測(cè)器,可用于3D視頻物體檢測(cè)問題。該方法主要包括兩個(gè)可學(xué)習(xí)組件:物體中心時(shí)空對(duì)應(yīng)關(guān)系和特征度量型物體綁定調(diào)整。針對(duì)動(dòng)態(tài)物體和靜態(tài)物體對(duì)應(yīng)關(guān)系引入了不同的約束,并將其結(jié)合在一個(gè)非線性最小二乘優(yōu)化問題中。該算法能夠通過對(duì)全局優(yōu)化和局部細(xì)節(jié)校準(zhǔn)相結(jié)合,實(shí)現(xiàn)對(duì)于視頻中物體3D位置估計(jì)的精準(zhǔn)檢測(cè)。

  • (2): 本文方法主要解決了運(yùn)動(dòng)物體檢測(cè)問題,對(duì)于長時(shí)間的視覺對(duì)應(yīng)優(yōu)化在3D場(chǎng)景重建中采用對(duì)象跟蹤,并放棄了這種做法對(duì)于動(dòng)態(tài)物體的處理。采用了對(duì) BEV、multi-frame temporal cross-attention等技術(shù)的綜合性方案,但同樣忽略了顯式的時(shí)間上的對(duì)應(yīng)關(guān)系。因此,本文方法中創(chuàng)新地引入了物體中心的概念,建立物體中心和物體外框之間的對(duì)應(yīng)關(guān)系,并將此問題轉(zhuǎn)化為一個(gè)優(yōu)化問題來解決。

  • (3): 在實(shí)驗(yàn)中,本文將其方法與多個(gè)先進(jìn)的3D視頻物體檢測(cè)算法進(jìn)行比較。結(jié)果表明,BA-Det算法具有更好的性能,不僅可以檢測(cè)靜態(tài)物體,而且可以處理動(dòng)態(tài)物體,并在3D檢測(cè)任務(wù)上取得了最先進(jìn)的水平。在計(jì)算資源上的開銷也較低,因此具有一定的推廣價(jià)值。

  1. Conclusion:
  • (1): 本研究提出了一種具有長期時(shí)間上的視覺對(duì)應(yīng)優(yōu)化的3D視頻物體檢測(cè)方法——BA-Det,并取得了很好的效果。此方法突破了現(xiàn)有方法的局限性,同時(shí)能有效地處理靜態(tài)物體和動(dòng)態(tài)物體。

  • (2): 創(chuàng)新點(diǎn):BA-Det算法創(chuàng)新性地引入物體中心的概念,建立物體中心和物體外框之間的對(duì)應(yīng)關(guān)系,從而有效解決運(yùn)動(dòng)物體檢測(cè)問題。文章來源地址http://www.zghlxwxcb.cn/news/detail-608077.html

到了這里,關(guān)于CVPR2023新作:3D視頻物體檢測(cè)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • TPS Motion(CVPR2022)視頻生成論文解讀

    TPS Motion(CVPR2022)視頻生成論文解讀

    論文: 《Thin-Plate Spline Motion Model for Image Animation》 github: https://github.com/yoyo-nb/Thin-Plate-Spline-Motion-Model 問題: 盡管當(dāng)前有些工作使用無監(jiān)督方法進(jìn)可行任意目標(biāo)姿態(tài)遷移,但是當(dāng)源圖與目標(biāo)圖差異大時(shí),對(duì)當(dāng)前無監(jiān)督方案來說仍然具有挑戰(zhàn)。 方法: 本文提出無監(jiān)督TPS Motio

    2023年04月11日
    瀏覽(102)
  • CVPR2023 | 70+目標(biāo)檢測(cè)論文及代碼整理

    目標(biāo)檢測(cè)是當(dāng)下應(yīng)用最廣的計(jì)算機(jī)視覺任務(wù)之一。本文整理了CVPR 2023 目標(biāo)檢測(cè)相關(guān)論文72篇,覆蓋包括2D目標(biāo)檢測(cè)、3D目標(biāo)檢測(cè)、視頻目標(biāo)檢測(cè)、人物交互檢測(cè)、異常檢測(cè)、偽裝目標(biāo)檢測(cè)、關(guān)鍵點(diǎn)檢測(cè)、顯著性目標(biāo)檢測(cè)、車道線檢測(cè)、邊緣檢測(cè)等10個(gè)細(xì)分任務(wù)。并且每篇論文都

    2024年02月10日
    瀏覽(28)
  • CVPR2023最佳論文候選:3D點(diǎn)云配準(zhǔn)新方法

    CVPR2023最佳論文候選:3D點(diǎn)云配準(zhǔn)新方法

    文章:3D Registration with Maximal Cliques 作者:Xiyu Zhang Jiaqi Yang* Shikun Zhang Yanning Zhang 編輯:點(diǎn)云PCL 代碼: https://github.com/zhangxy0517/3D-Registration-with-Maximal-Cliques.git 歡迎各位加入知識(shí)星球,獲取PDF論文,歡迎轉(zhuǎn)發(fā)朋友圈。文章僅做學(xué)術(shù)分享,如有侵權(quán)聯(lián)系刪文。 公眾號(hào)致力于點(diǎn)云處

    2024年02月08日
    瀏覽(22)
  • 【CVPR 2023 論文解讀】TriDet: Temporal Action Detection with Relative Boundary Modeling

    【CVPR 2023 論文解讀】TriDet: Temporal Action Detection with Relative Boundary Modeling

    發(fā)表時(shí)間:CVPR 2023 作者團(tuán)隊(duì):北航,美團(tuán),JD Explore 代碼鏈接: GitHub - dingfengshi/TriDet: [CVPR2023] Code for the paper, TriDet: Temporal Action Detection with Relative Boundary Modeling [CVPR2023] Code for the paper, TriDet: Temporal Action Detection with Relative Boundary Modeling - GitHub - dingfengshi/TriDet: [CVPR2023] Code for t

    2024年02月05日
    瀏覽(26)
  • CVPR2023新作:基于面部對(duì)稱性先驗(yàn)的三維生成對(duì)抗網(wǎng)絡(luò)反演方法

    Title: 3D GAN Inversion With Facial Symmetry Prior (帶面部對(duì)稱性先驗(yàn)的3D GAN反演) Affiliation: 清華大學(xué) Authors: Fei Yin, Yong Zhang, Xuan Wang, Tengfei Wang, Xiaoyu Li, Yuan Gong, Yanbo Fan, Xiaodong Cun, Ying Shan, Cengiz èOztireli, Yujiu Yang Keywords: 3D GAN, facial symmetry prior, generator network, neural rendering, image reconstruction

    2024年02月15日
    瀏覽(24)
  • CVPR'23論文一覽 | 多模態(tài)/3D檢測(cè)/BEV/跟蹤/點(diǎn)云等多個(gè)方向!

    CVPR'23論文一覽 | 多模態(tài)/3D檢測(cè)/BEV/跟蹤/點(diǎn)云等多個(gè)方向!

    點(diǎn)擊下方 卡片 ,關(guān)注“ 自動(dòng)駕駛之心 ”公眾號(hào) ADAS巨卷干貨,即可獲取 點(diǎn)擊進(jìn)入→ 自動(dòng)駕駛之心【全棧算法】技術(shù)交流群 Referring Multi-Object Tracking 研究背景:多目標(biāo)跟蹤(MOT)是指在視頻中檢測(cè)并跟蹤多個(gè)感興趣的對(duì)象,并為它們分配唯一的ID?,F(xiàn)有的MOT方法通常依賴于視

    2024年02月05日
    瀏覽(28)
  • CVPR 2023 | VoxelNeXt實(shí)現(xiàn)全稀疏3D檢測(cè)跟蹤,還能結(jié)合Seg Anything

    CVPR 2023 | VoxelNeXt實(shí)現(xiàn)全稀疏3D檢測(cè)跟蹤,還能結(jié)合Seg Anything

    在本文中,研究者提出了一個(gè)完全稀疏且以體素為基礎(chǔ)的3D物體檢測(cè)和跟蹤框架VoxelNeXt。它采用簡單的技術(shù),運(yùn)行快速,沒有太多額外的成本,并且可以在沒有NMS后處理的情況下以優(yōu)雅的方式工作。VoxelNeXt在大規(guī)模數(shù)據(jù)集nuScenes、Waymo和Argoverse2上表現(xiàn)出很好的速度和精度;在

    2024年02月09日
    瀏覽(18)
  • 【論文閱讀】通過3D和2D網(wǎng)絡(luò)的交叉示教實(shí)現(xiàn)稀疏標(biāo)注的3D醫(yī)學(xué)圖像分割(CVPR2023)

    【論文閱讀】通過3D和2D網(wǎng)絡(luò)的交叉示教實(shí)現(xiàn)稀疏標(biāo)注的3D醫(yī)學(xué)圖像分割(CVPR2023)

    論文:3D Medical Image Segmentation with Sparse Annotation via Cross-Teaching between 3D and 2D Networks 代碼:https://github.com/hengcai-nju/3d2dct 問題1 :醫(yī)學(xué)圖像分割通常需要大量且精確標(biāo)注的數(shù)據(jù)集。但是獲取像素級(jí)標(biāo)注是一項(xiàng)勞動(dòng)密集型的任務(wù),需要領(lǐng)域?qū)<腋冻鼍薮蟮呐?,這使得在實(shí)際臨床場(chǎng)

    2024年02月05日
    瀏覽(82)
  • [論文閱讀]FCAF3D——全卷積無錨 3D 物體檢測(cè)

    [論文閱讀]FCAF3D——全卷積無錨 3D 物體檢測(cè)

    FCAF3D:Fully Convolutional Anchor-Free 3D Object Detection FCAF3D:全卷積無錨 3D 物體檢測(cè) 論文網(wǎng)址:Fcaf3d 代碼網(wǎng)址:Fcaf3d 這篇論文介紹了一個(gè)用于室內(nèi)3D物體檢測(cè)的全卷積 Anchor-Free 方法 FCAF3D。主要貢獻(xiàn)如下: 提出了第一個(gè)用于室內(nèi)3D物體檢測(cè)的全卷積Anchor-Free方法FCAF3D。 提出了一種新的

    2024年02月03日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包