国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【計(jì)算機(jī)視覺 | 目標(biāo)檢測】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測的學(xué)術(shù)速遞(8 月 10 日論文合集)

這篇具有很好參考價(jià)值的文章主要介紹了【計(jì)算機(jī)視覺 | 目標(biāo)檢測】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測的學(xué)術(shù)速遞(8 月 10 日論文合集)。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

一、檢測相關(guān)(12篇)

1.1 Volumetric Fast Fourier Convolution for Detecting Ink on the Carbonized Herculaneum Papyri

體積快速傅里葉卷積法檢測炭化紙頁上的油墨

https://arxiv.org/abs/2308.05070

數(shù)字文檔恢復(fù)(DDR)的最新進(jìn)展在分析高度損壞的書面文物方面取得了重大突破。其中,應(yīng)用人工智能技術(shù)來虛擬地展開和自動(dòng)檢測Herculaneum papyri集合上的墨水的興趣越來越大。該系列由碳化卷軸和文件碎片組成,這些文件已通過X射線斷層掃描進(jìn)行數(shù)字化,以便開發(fā)基于深度學(xué)習(xí)的特定DDR解決方案。在這項(xiàng)工作中,我們提出了一個(gè)修改的快速傅立葉卷積運(yùn)算符的體積數(shù)據(jù),并將其應(yīng)用于具有挑戰(zhàn)性的Herculaneum papyri油墨檢測的分割架構(gòu),通過深入的實(shí)驗(yàn)分析證明其適用性。為了鼓勵(lì)對該任務(wù)的研究以及將所提出的運(yùn)算符應(yīng)用于涉及體積數(shù)據(jù)的其他任務(wù),我們將發(fā)布我們的實(shí)現(xiàn)(https://github.com/aimagelab/vffc)

1.2 Density Crop-guided Semi-supervised Object Detection in Aerial Images

基于密度作物制導(dǎo)的航空圖像半監(jiān)督目標(biāo)檢測

https://arxiv.org/abs/2308.05032

訓(xùn)練現(xiàn)代對象檢測器的重要瓶頸之一是需要標(biāo)記的圖像,其中邊界框注釋必須為圖像中存在的每個(gè)對象產(chǎn)生。這種瓶頸在航空圖像中進(jìn)一步加劇,其中注釋器必須標(biāo)記小對象,通常分布在高分辨率圖像上的集群中。近年來,利用偽標(biāo)簽和弱-強(qiáng)增強(qiáng)一致性訓(xùn)練的均值教師方法在半監(jiān)督對象檢測中越來越受歡迎。然而,這種半監(jiān)督檢測器的空中圖像的直接適應(yīng),其中小的集群對象經(jīng)常存在,可能不會(huì)導(dǎo)致最佳的結(jié)果。在本文中,我們提出了一種密度裁剪引導(dǎo)的半監(jiān)督檢測器,識(shí)別集群的小對象在訓(xùn)練過程中,并利用它們來提高性能,在推理。在訓(xùn)練期間,使用從標(biāo)記和未標(biāo)記圖像識(shí)別的聚類的圖像裁剪來增強(qiáng)訓(xùn)練集,這反過來增加了檢測小對象和為未標(biāo)記圖像上的小對象創(chuàng)建良好偽標(biāo)簽的機(jī)會(huì)。在推斷期間,檢測器不僅能夠檢測感興趣的對象,而且能夠檢測具有高密度的小對象(密度裁剪)的區(qū)域,使得來自輸入圖像的檢測和來自圖像裁剪的檢測被組合,從而導(dǎo)致總體上更準(zhǔn)確的對象預(yù)測,特別是對于小對象。對VisDrone和DOTA數(shù)據(jù)集的常用基準(zhǔn)進(jìn)行了實(shí)證研究,結(jié)果表明,我們的密度作物引導(dǎo)半監(jiān)督檢測器的有效性比COCO風(fēng)格AP中的基本mean-teacher方法平均提高了2%以上.我們的代碼可從以下網(wǎng)址獲得:https://github.com/akhilpm/DroneSSOD。

1.3 An End-to-End Framework of Road User Detection, Tracking, and Prediction from Monocular Images

一種端到端的單目圖像道路用戶檢測、跟蹤和預(yù)測框架

https://arxiv.org/abs/2308.05026

涉及多目標(biāo)檢測和跟蹤的感知以及軌跡預(yù)測是自動(dòng)駕駛的兩個(gè)主要任務(wù)。然而,它們目前主要被單獨(dú)研究,這導(dǎo)致大多數(shù)軌跡預(yù)測模塊基于地面實(shí)況軌跡開發(fā),而不考慮從現(xiàn)實(shí)世界場景中的檢測和跟蹤模塊提取的軌跡是有噪聲的。這些噪聲軌跡可能對軌跡預(yù)測器的性能具有顯著影響,并且可能導(dǎo)致嚴(yán)重的預(yù)測誤差。在本文中,我們建立了一個(gè)端到端的框架檢測,跟蹤和軌跡預(yù)測稱為OTTP(在線檢測,跟蹤和預(yù)測)。它采用最先進(jìn)的在線多目標(biāo)跟蹤模型QD-3DT進(jìn)行感知,并直接根據(jù)檢測結(jié)果訓(xùn)練軌跡預(yù)測器DCENet++,而不純粹依賴于地面真實(shí)軌跡。我們在廣泛使用的nuScenes自動(dòng)駕駛數(shù)據(jù)集上評估了ODTP的性能。大量的實(shí)驗(yàn)表明,ODPT實(shí)現(xiàn)了高性能的端到端的軌跡預(yù)測。DCENet++具有增強(qiáng)的動(dòng)態(tài)地圖,比其基礎(chǔ)模型預(yù)測更準(zhǔn)確的軌跡。當(dāng)與在噪聲檢測結(jié)果上訓(xùn)練的其他生成和確定性軌跡預(yù)測模型相比時(shí),它也更魯棒。

1.4 Gaussian Image Anomaly Detection with Greedy Eigencomponent Selection

基于貪婪特征分量選擇的高斯圖像異常檢測

https://arxiv.org/abs/2308.04944

圖像中的異常檢測(AD)是計(jì)算機(jī)視覺中的一個(gè)關(guān)鍵問題,它可以識(shí)別與正態(tài)的顯著偏差。本文介紹了一種新的方法,使用預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)(CNN),結(jié)合了EfficientNet模型的AD降維。我們調(diào)查的重要性的組件選擇,并提出了兩種類型的樹搜索方法,都采用貪婪的策略,最佳的特征組件選擇。我們的研究進(jìn)行了三個(gè)主要的實(shí)驗(yàn)來評估我們的方法的有效性。第一個(gè)實(shí)驗(yàn)探討了測試集性能對組件選擇的影響,第二個(gè)實(shí)驗(yàn)考察了當(dāng)我們訓(xùn)練一個(gè)異常類型和評估所有其他類型時(shí)的性能,第三個(gè)實(shí)驗(yàn)調(diào)查使用最少數(shù)量的圖像進(jìn)行訓(xùn)練和選擇它們的異常類型的影響。我們的方法的目的是找到最佳的子集的組件,提供最高的性能得分,而不是只關(guān)注每個(gè)組件解釋的方差的比例,也了解組件在不同設(shè)置的行為。我們的研究結(jié)果表明,所提出的方法超過主成分分析(PCA)和否定主成分分析(NPCA)的檢測精度,即使使用較少的組件。因此,我們的方法提供了一個(gè)有前途的替代傳統(tǒng)的降維技術(shù)在AD,并有潛力,以提高效率和有效性的AD系統(tǒng)。

1.5 Unsupervised Out-of-Distribution Dialect Detection with Mahalanobis Distance

基于馬氏距離的無監(jiān)督異地方言檢測

https://arxiv.org/abs/2308.04886

方言分類被用于各種應(yīng)用中,例如機(jī)器翻譯和語音識(shí)別,以提高系統(tǒng)的整體性能。在現(xiàn)實(shí)世界的場景中,部署的方言分類模型可能會(huì)遇到與訓(xùn)練數(shù)據(jù)分布不同的異常輸入,也稱為分布外(OOD)樣本。這些OOD樣本可能會(huì)導(dǎo)致意外的輸出,因?yàn)檫@些樣本的方言在模型訓(xùn)練期間是不可見的。分布外檢測是一個(gè)新的研究領(lǐng)域,在方言分類的背景下,很少受到關(guān)注。為此,我們提出了一個(gè)簡單而有效的無監(jiān)督馬氏距離特征為基礎(chǔ)的方法來檢測出的分布樣本。我們利用潛在的嵌入從所有中間層的wav2vec 2.0轉(zhuǎn)換為基礎(chǔ)的方言分類模型的多任務(wù)學(xué)習(xí)。我們提出的方法優(yōu)于其他國家的最先進(jìn)的OOD檢測方法顯著。

1.6 Multi-Scale Memory Comparison for Zero-/Few-Shot Anomaly Detection

用于零/少激發(fā)異常檢測的多尺度記憶比較

https://arxiv.org/abs/2308.04789

異常檢測由于其廣泛的應(yīng)用,特別是在工業(yè)缺陷檢測中,獲得了相當(dāng)大的關(guān)注。為了解決數(shù)據(jù)收集的挑戰(zhàn),研究人員已經(jīng)引入了零/Few-Shot異常檢測技術(shù),該技術(shù)需要每個(gè)類別的最小正常圖像。然而,復(fù)雜的工業(yè)場景通常涉及多個(gè)對象,這帶來了重大挑戰(zhàn)。鑒于此,我們提出了一個(gè)簡單而強(qiáng)大的多尺度內(nèi)存比較框架,用于零/Few-Shot異常檢測。我們的方法采用了一個(gè)全球性的內(nèi)存銀行捕捉整個(gè)圖像的功能,而一個(gè)單獨(dú)的內(nèi)存銀行專注于簡化的場景包含一個(gè)單一的對象。我們的方法的有效性進(jìn)行了驗(yàn)證,其顯著的成就,第四名在zero-shot軌道和第二名在Few-Shot軌道的視覺異常和新奇檢測(VAND)的競爭。

1.7 Multi-View Fusion and Distillation for Subgrade Distresses Detection based on 3D-GPR

基于3D-GPR的路基病害檢測多視點(diǎn)融合與提取

https://arxiv.org/abs/2308.04779

三維探地雷達(dá)(3D-GPR)在路基病害檢測中的應(yīng)用得到了廣泛的推廣。為了提高檢測的效率和準(zhǔn)確性,開創(chuàng)性的研究嘗試采用自動(dòng)檢測技術(shù),特別是深度學(xué)習(xí)。然而,現(xiàn)有的工作通常依賴于傳統(tǒng)的一維A掃描,二維B掃描或三維C掃描數(shù)據(jù)的探地雷達(dá),導(dǎo)致空間信息不足或高計(jì)算復(fù)雜度。為了解決這些挑戰(zhàn),我們引入了一種新的方法,利用從3D-GPR數(shù)據(jù)的多視圖信息的路基病害檢測任務(wù)。此外,我們構(gòu)建了一個(gè)真正的多視圖圖像數(shù)據(jù)集來自原始的3D-GPR數(shù)據(jù)的檢測任務(wù),它提供了更豐富的空間信息相比,A-掃描和B-掃描數(shù)據(jù),同時(shí)降低計(jì)算復(fù)雜度相比,C-掃描數(shù)據(jù)。隨后,我們開發(fā)了一種新的\textbf{M}ulti-\textbf {V} view\textbf{V}usion和\textbf{D} istilation框架,\textbf{GPR-MVFD},專門設(shè)計(jì)用于優(yōu)化利用多視圖GPR數(shù)據(jù)集。該框架巧妙地結(jié)合了多視圖蒸餾和基于注意力的融合,以促進(jìn)路基病害的重要特征提取。此外,自適應(yīng)學(xué)習(xí)機(jī)制,采用穩(wěn)定的模型訓(xùn)練,防止性能退化,在每個(gè)分支。在這個(gè)新的探地雷達(dá)基準(zhǔn)上進(jìn)行的大量實(shí)驗(yàn)證明了我們所提出的框架的有效性和效率。我們的框架不僅優(yōu)于現(xiàn)有的GPR基線,而且在多視圖學(xué)習(xí),多模態(tài)學(xué)習(xí)和知識(shí)蒸餾領(lǐng)域的最先進(jìn)的方法。我們將發(fā)布構(gòu)建的多視圖GPR數(shù)據(jù)集與專家注釋的標(biāo)簽和擬議的框架的源代碼。

1.8 E3-UAV: An Edge-based Energy-Efficient Object Detection System for Unmanned Aerial Vehicles

E3-UAV:一種基于邊緣的無人機(jī)節(jié)能目標(biāo)檢測系統(tǒng)

https://arxiv.org/abs/2308.04774

受深度學(xué)習(xí)技術(shù)進(jìn)步的推動(dòng),基于無人機(jī)(UAV)的物體檢測的應(yīng)用已經(jīng)在一系列領(lǐng)域中激增,包括車輛計(jì)數(shù)、火災(zāi)檢測和城市監(jiān)控。雖然大多數(shù)現(xiàn)有的研究僅研究基于UAV的目標(biāo)檢測所固有的挑戰(zhàn)的子集,但很少有研究平衡各個(gè)方面以設(shè)計(jì)用于降低能耗的實(shí)用系統(tǒng)。作為回應(yīng),我們提出了E3-UAV,一個(gè)基于邊緣的節(jié)能目標(biāo)檢測系統(tǒng)的無人機(jī)。該系統(tǒng)被設(shè)計(jì)為動(dòng)態(tài)地支持各種UAV設(shè)備、邊緣設(shè)備和檢測算法,目的是通過決定滿足任務(wù)的檢測要求所需的最節(jié)能的飛行參數(shù)(包括飛行高度、飛行速度、檢測算法和采樣率)來最小化能量消耗。我們首先提出了一個(gè)有效的實(shí)際任務(wù)的評估指標(biāo),并建立了一個(gè)透明的能源消耗模型的基礎(chǔ)上,數(shù)百個(gè)實(shí)際的飛行數(shù)據(jù),形式化的能源消耗和飛行參數(shù)之間的關(guān)系。然后,我們提出了一個(gè)輕量級的能量有效的優(yōu)先級決策算法的基礎(chǔ)上,大量的實(shí)際飛行數(shù)據(jù),以幫助系統(tǒng)決定飛行參數(shù)。最后,我們評估了系統(tǒng)的性能,我們的實(shí)驗(yàn)結(jié)果表明,它可以顯著降低能源消耗在現(xiàn)實(shí)世界中的場景。此外,我們還提供了四個(gè)見解,可以幫助研究人員和工程師進(jìn)一步研究基于無人機(jī)的目標(biāo)檢測。

1.9 Objects do not disappear: Video object detection by single-frame object location anticipation

目標(biāo)不消失:基于單幀目標(biāo)定位預(yù)測的視頻目標(biāo)檢測

https://arxiv.org/abs/2308.04770

視頻中的對象通常以連續(xù)平滑運(yùn)動(dòng)為特征。我們利用連續(xù)平滑運(yùn)動(dòng)在三種方式。1)通過使用對象運(yùn)動(dòng)作為額外的監(jiān)督源來提高準(zhǔn)確性,我們通過從靜態(tài)關(guān)鍵幀中預(yù)測對象位置來獲得。2)通過僅在所有幀的一小部分上進(jìn)行昂貴的特征計(jì)算來提高效率。由于相鄰視頻幀通常是冗余的,因此我們僅計(jì)算單個(gè)靜態(tài)關(guān)鍵幀的特征并預(yù)測后續(xù)幀中的對象位置。3)降低了注釋成本,我們只注釋關(guān)鍵幀,并在關(guān)鍵幀之間使用平滑的偽運(yùn)動(dòng)。我們在四個(gè)數(shù)據(jù)集上展示了計(jì)算效率,注釋效率和與最先進(jìn)技術(shù)相比提高的平均精度:ImageNet VID、EPIC KITCHENS-55、YouTube-BoundingBoxes和Waymo Open數(shù)據(jù)集。我們的源代碼可以在https://github.com/L-KID/Videoobject-detection-by-location-anticipation上找到。

1.10 FocalFormer3D : Focusing on Hard Instance for 3D Object Detection

FocalFormer3D:關(guān)注3D對象檢測的硬實(shí)例

https://arxiv.org/abs/2308.04556

3D對象檢測中的假陰性(FN),對行人、車輛或其他障礙物的預(yù)測缺失可能導(dǎo)致自動(dòng)駕駛中的潛在危險(xiǎn)情況。雖然是致命的,但這個(gè)問題在許多當(dāng)前的3D檢測方法中研究不足。在這項(xiàng)工作中,我們提出了硬實(shí)例探測(HIP),一個(gè)通用的管道,以多階段的方式識(shí)別\textit{FN},并引導(dǎo)模型專注于挖掘困難的實(shí)例。對于3D對象檢測,我們將此方法實(shí)例化為FocalFormer 3D,這是一種簡單而有效的檢測器,擅長挖掘困難對象并提高預(yù)測召回率。FocalFormer 3D具有多階段查詢生成以發(fā)現(xiàn)硬對象和框級Transformer解碼器,以有效地區(qū)分對象和大量對象候選者。在nuScenes和Waymo數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果驗(yàn)證了FocalFormer 3D的優(yōu)越性能。該優(yōu)勢導(dǎo)致在LiDAR和多模態(tài)設(shè)置中的檢測和跟蹤的強(qiáng)大性能。值得注意的是,F(xiàn)ocalFormer 3D在nuScenes檢測基準(zhǔn)測試中獲得了70.5 mAP和73.9 NDS,而nuScenes跟蹤基準(zhǔn)測試顯示了72.1 AMOTA,兩者都在nuScenes LiDAR排行榜上排名第一。我們的代碼可以在\url{https://github.com/NVlabs/FocalFormer3D}上找到。

1.11 YUDO: YOLO for Uniform Directed Object Detection

YUDO:用于均勻定向目標(biāo)檢測的YOLO

https://arxiv.org/abs/2308.04542

提出了一種通過預(yù)測目標(biāo)中心坐標(biāo)和方向角來檢測有向目標(biāo)的有效方法。由于對象是統(tǒng)一的大小,所提出的模型的工作原理,而無需預(yù)測對象的寬度和高度。用于此問題的數(shù)據(jù)集在Honeybee Segmentation and Tracking Datasets項(xiàng)目中給出。這項(xiàng)工作的貢獻(xiàn)之一是檢查的標(biāo)準(zhǔn)實(shí)時(shí)對象檢測架構(gòu),如YoloV7的位置和方向檢測進(jìn)行定制的能力。在這種方法中使用了一種非常高效的小型架構(gòu)。此外,三個(gè)檢測頭中只有一個(gè)沒有錨就足以完成這項(xiàng)任務(wù)。我們還介紹了旋轉(zhuǎn)盒定向IoU(DirIoU)的擴(kuò)展的聯(lián)合上的斜交(SkewIoU)計(jì)算,其包括絕對角度差。DirIoU用于mAP計(jì)算的目標(biāo)和預(yù)測邊界框的匹配過程以及NMS過濾過程。代碼和型號可在https://github.com/djordjened92/yudo獲得。

1.12 Toward unlabeled multi-view 3D pedestrian detection by generalizable AI: techniques and performance analysis

基于泛化人工智能的無標(biāo)記多視角三維行人檢測:技術(shù)與性能分析

https://arxiv.org/abs/2308.04515

我們揭示了如何可推廣的人工智能可以用于改善多視圖3D行人檢測在未標(biāo)記的目標(biāo)場景。增加對新場景的泛化的一種方法是自動(dòng)標(biāo)記目標(biāo)數(shù)據(jù),然后可以將其用于訓(xùn)練檢測器模型。在這種情況下,我們研究了兩種自動(dòng)標(biāo)記目標(biāo)數(shù)據(jù)的方法:使用監(jiān)督檢測器的偽標(biāo)記和使用未經(jīng)訓(xùn)練的檢測器的自動(dòng)標(biāo)記(其可以在沒有任何訓(xùn)練的情況下開箱即用)。我們采用了一個(gè)訓(xùn)練框架,用于優(yōu)化檢測器模型,使用自動(dòng)標(biāo)記程序。該框架包括不同的訓(xùn)練集/模式和多輪自動(dòng)標(biāo)記策略。我們對公開可用的WILDTRACK和MultiviewX數(shù)據(jù)集進(jìn)行分析。我們表明,通過使用基于未經(jīng)訓(xùn)練的檢測器的自動(dòng)標(biāo)記方法,我們可以獲得優(yōu)于直接使用未經(jīng)訓(xùn)練的檢測器或檢測器與現(xiàn)有的標(biāo)記源數(shù)據(jù)集訓(xùn)練的結(jié)果。當(dāng)使用WILDTRACK和MultiviewX作為目標(biāo)數(shù)據(jù)集時(shí),它實(shí)現(xiàn)了MODA約4%和1%的最佳現(xiàn)有未標(biāo)記方法。文章來源地址http://www.zghlxwxcb.cn/news/detail-666121.html

到了這里,關(guān)于【計(jì)算機(jī)視覺 | 目標(biāo)檢測】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測的學(xué)術(shù)速遞(8 月 10 日論文合集)的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包