国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【計(jì)算機(jī)視覺 | 目標(biāo)檢測(cè)】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測(cè)的學(xué)術(shù)速遞(7 月 3 日論文合集)

這篇具有很好參考價(jià)值的文章主要介紹了【計(jì)算機(jī)視覺 | 目標(biāo)檢測(cè)】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測(cè)的學(xué)術(shù)速遞(7 月 3 日論文合集)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

一、檢測(cè)相關(guān)(9篇)

1.1 Federated Ensemble YOLOv5 - A Better Generalized Object Detection Algorithm

聯(lián)邦集成YOLOv5–一種更好的廣義目標(biāo)檢測(cè)算法

論文地址:

https://arxiv.org/abs/2306.17829

【計(jì)算機(jī)視覺 | 目標(biāo)檢測(cè)】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測(cè)的學(xué)術(shù)速遞(7 月 3 日論文合集),目標(biāo)檢測(cè)經(jīng)典論文導(dǎo)讀,計(jì)算機(jī)視覺arxiv最新論文,計(jì)算機(jī)視覺,目標(biāo)檢測(cè),目標(biāo)跟蹤,人工智能
聯(lián)邦學(xué)習(xí)(FL)作為一種隱私保護(hù)算法已經(jīng)獲得了顯著的吸引力,但聯(lián)邦學(xué)習(xí)算法(如聯(lián)邦平均(FED Avg)或聯(lián)邦SGD(FED SGD))與集成學(xué)習(xí)算法的潛在相似之處尚未得到充分探索。本文的目的是研究FL的應(yīng)用程序的對(duì)象檢測(cè)的方法,以提高泛化能力,并比較其性能對(duì)一個(gè)集中的訓(xùn)練方法的對(duì)象檢測(cè)算法。具體來說,我們研究了在多個(gè)客戶端上使用FL訓(xùn)練的YOLOv5模型的性能,并采用了不替換的隨機(jī)抽樣策略,因此每個(gè)客戶端都持有用于集中訓(xùn)練的相同數(shù)據(jù)集的一部分。我們的實(shí)驗(yàn)結(jié)果展示了FL對(duì)象檢測(cè)器的全局模型的卓越效率,在生成準(zhǔn)確的邊界框?yàn)槲匆姷膶?duì)象,測(cè)試集是來自兩個(gè)不同的客戶端的對(duì)象的混合物,沒有在訓(xùn)練數(shù)據(jù)集中表示。這些研究結(jié)果表明,F(xiàn)L可以從集成算法的角度來看,類似于Bagging和Boosting技術(shù)的協(xié)同混合。因此,F(xiàn)L不僅可以被視為增強(qiáng)隱私的方法,而且可以被視為增強(qiáng)機(jī)器學(xué)習(xí)模型性能的方法。

1.2 Zero-shot Nuclei Detection via Visual-Language Pre-trained Models

基于視覺語(yǔ)言預(yù)訓(xùn)練模型的零射中核檢測(cè)

論文地址:

https://arxiv.org/abs/2306.17659

【計(jì)算機(jī)視覺 | 目標(biāo)檢測(cè)】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測(cè)的學(xué)術(shù)速遞(7 月 3 日論文合集),目標(biāo)檢測(cè)經(jīng)典論文導(dǎo)讀,計(jì)算機(jī)視覺arxiv最新論文,計(jì)算機(jī)視覺,目標(biāo)檢測(cè),目標(biāo)跟蹤,人工智能
大規(guī)模視覺語(yǔ)言預(yù)訓(xùn)練模型(VLPM)已經(jīng)證明了他們?cè)谙掠蔚淖匀粓?chǎng)景目標(biāo)檢測(cè)中的出色性能。然而,通過VLPM在H&E圖像上的zero-shot核檢測(cè)仍然不足。醫(yī)學(xué)圖像和用于預(yù)訓(xùn)練的網(wǎng)絡(luò)來源的文本圖像對(duì)之間的巨大差距使其成為一項(xiàng)具有挑戰(zhàn)性的任務(wù)。在本文中,我們?cè)噲D探索的潛在的對(duì)象級(jí)VLPM,扎根語(yǔ)言圖像預(yù)訓(xùn)練(GLIP)模型,zero-shot核檢測(cè)。具體地,基于VLPM和圖像到文本VLPM BLIP的關(guān)聯(lián)綁定特性,設(shè)計(jì)了一個(gè)自動(dòng)提示設(shè)計(jì)流水線,避免了經(jīng)驗(yàn)性的人工提示工程。我們進(jìn)一步建立了一個(gè)自我訓(xùn)練框架,使用自動(dòng)設(shè)計(jì)的提示生成初步結(jié)果作為偽標(biāo)簽從GLIP和細(xì)化預(yù)測(cè)框迭代的方式。我們的方法實(shí)現(xiàn)了顯著的性能,無(wú)標(biāo)記的核檢測(cè),超過其他比較方法。首先,我們的工作表明,在自然圖像-文本對(duì)上預(yù)訓(xùn)練的VLPM在醫(yī)療領(lǐng)域的下游任務(wù)中也表現(xiàn)出驚人的潛力。代碼將在www.example.com發(fā)布https://github.com/wuyongjianCODE/VLPMNuD。

1.3 Federated Object Detection for Quality Inspection in Shared Production

面向共享生產(chǎn)質(zhì)量檢測(cè)的聯(lián)合目標(biāo)檢測(cè)

論文地址:

https://arxiv.org/abs/2306.17645

【計(jì)算機(jī)視覺 | 目標(biāo)檢測(cè)】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測(cè)的學(xué)術(shù)速遞(7 月 3 日論文合集),目標(biāo)檢測(cè)經(jīng)典論文導(dǎo)讀,計(jì)算機(jī)視覺arxiv最新論文,計(jì)算機(jī)視覺,目標(biāo)檢測(cè),目標(biāo)跟蹤,人工智能
聯(lián)邦學(xué)習(xí)(FL)已經(jīng)成為一種在不損害數(shù)據(jù)隱私的情況下訓(xùn)練分散式數(shù)據(jù)的機(jī)器學(xué)習(xí)模型的有前途的方法。在本文中,我們提出了一種FL算法的質(zhì)量檢測(cè)任務(wù)中的目標(biāo)檢測(cè)使用YOLOv 5的目標(biāo)檢測(cè)算法和聯(lián)邦平均(FedAvg)的FL算法。我們將這種方法應(yīng)用于制造用例,其中多個(gè)工廠/客戶端貢獻(xiàn)數(shù)據(jù),用于訓(xùn)練一個(gè)全局對(duì)象檢測(cè)模型,同時(shí)保留非IID數(shù)據(jù)集的數(shù)據(jù)隱私。我們的實(shí)驗(yàn)表明,我們的FL方法在整個(gè)客戶端的測(cè)試數(shù)據(jù)集上實(shí)現(xiàn)了更好的泛化性能,并生成改進(jìn)的邊界框周圍的對(duì)象相比,使用本地客戶端的數(shù)據(jù)集訓(xùn)練的模型。這項(xiàng)工作展示了FL在制造業(yè)的質(zhì)量檢測(cè)任務(wù)的潛力,并提供了有價(jià)值的見解,利用YOLOv 5和FedAvg聯(lián)邦對(duì)象檢測(cè)的性能和可行性。

1.4 Comparative study of subset selection methods for rapid prototyping of 3D object detection algorithms

三維物體檢測(cè)算法快速成型子集選擇方法的比較研究

論文地址:

https://arxiv.org/abs/2306.17551

【計(jì)算機(jī)視覺 | 目標(biāo)檢測(cè)】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測(cè)的學(xué)術(shù)速遞(7 月 3 日論文合集),目標(biāo)檢測(cè)經(jīng)典論文導(dǎo)讀,計(jì)算機(jī)視覺arxiv最新論文,計(jì)算機(jī)視覺,目標(biāo)檢測(cè),目標(biāo)跟蹤,人工智能
3D中的物體檢測(cè)是自動(dòng)駕駛車輛和無(wú)人機(jī)背景下的一個(gè)關(guān)鍵方面。然而,原型檢測(cè)算法在能量和環(huán)境影響方面是耗時(shí)和昂貴的。為了解決這些挑戰(zhàn),可以通過在原始訓(xùn)練集的子集上進(jìn)行訓(xùn)練來檢查不同模型的有效性。在本文中,我們提出了一個(gè)比較的三種算法,選擇這樣的子集-隨機(jī)抽樣,隨機(jī)每類抽樣,我們提出的MONSPeC(最大對(duì)象數(shù)抽樣每類)。我們提供了經(jīng)驗(yàn)證據(jù)的優(yōu)越的有效性的隨機(jī)每類抽樣和MONSPeC基本隨機(jī)抽樣。通過用更有效的算法之一替換隨機(jī)采樣,在子集上獲得的結(jié)果更有可能轉(zhuǎn)移到整個(gè)數(shù)據(jù)集上的結(jié)果。代碼可在以下網(wǎng)址獲得:https://github.com/vision-agh/monspec。

1.5 DisPlacing Objects: Improving Dynamic Vehicle Detection via Visual Place Recognition under Adverse Conditions

移動(dòng)物體:在惡劣條件下通過視覺位置識(shí)別改進(jìn)動(dòng)態(tài)車輛檢測(cè)

論文地址:

https://arxiv.org/abs/2306.17536

【計(jì)算機(jī)視覺 | 目標(biāo)檢測(cè)】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測(cè)的學(xué)術(shù)速遞(7 月 3 日論文合集),目標(biāo)檢測(cè)經(jīng)典論文導(dǎo)讀,計(jì)算機(jī)視覺arxiv最新論文,計(jì)算機(jī)視覺,目標(biāo)檢測(cè),目標(biāo)跟蹤,人工智能
知道你在哪里能幫助你感知周圍的物體,特別是在惡劣的天氣和光照條件下?在這項(xiàng)工作中,我們調(diào)查是否可以利用一個(gè)先驗(yàn)的地圖,以幫助在一個(gè)場(chǎng)景中的動(dòng)態(tài)對(duì)象的檢測(cè),而不需要一個(gè)3D地圖或像素級(jí)的地圖查詢對(duì)應(yīng)。我們貢獻(xiàn)了一個(gè)算法,細(xì)化的候選對(duì)象的檢測(cè)的初始集,并產(chǎn)生一個(gè)細(xì)化的子集的高度準(zhǔn)確的檢測(cè)使用的先驗(yàn)地圖。我們首先使用視覺位置識(shí)別(VPR)檢索一個(gè)給定的查詢圖像的參考地圖圖像,然后使用二進(jìn)制分類神經(jīng)網(wǎng)絡(luò),比較查詢和映射圖像區(qū)域,以驗(yàn)證查詢檢測(cè)。一旦我們的分類網(wǎng)絡(luò)被訓(xùn)練,在大約1000個(gè)查詢地圖圖像對(duì),它能夠提高車輛檢測(cè)的性能時(shí),與現(xiàn)有的現(xiàn)成的車輛檢測(cè)器相結(jié)合。我們展示了我們的方法,使用標(biāo)準(zhǔn)的數(shù)據(jù)集跨兩個(gè)城市(牛津和蘇黎世)的不同設(shè)置的訓(xùn)練測(cè)試分離的地圖查詢遍歷對(duì)。我們進(jìn)一步強(qiáng)調(diào)我們的方法對(duì)替代設(shè)計(jì)選擇的性能增益,并表明VPR足以完成任務(wù),消除了精確的地面實(shí)況定位的需要。

1.6 Detection-segmentation convolutional neural network for autonomous vehicle perception

用于自主車輛感知的檢測(cè)-分段卷積神經(jīng)網(wǎng)絡(luò)

論文地址:

https://arxiv.org/abs/2306.17485

【計(jì)算機(jī)視覺 | 目標(biāo)檢測(cè)】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測(cè)的學(xué)術(shù)速遞(7 月 3 日論文合集),目標(biāo)檢測(cè)經(jīng)典論文導(dǎo)讀,計(jì)算機(jī)視覺arxiv最新論文,計(jì)算機(jī)視覺,目標(biāo)檢測(cè),目標(biāo)跟蹤,人工智能
目標(biāo)檢測(cè)和分割是自主車輛感知系統(tǒng)的兩個(gè)核心模塊。它們應(yīng)該具有高效率和低延遲,同時(shí)降低計(jì)算復(fù)雜度。目前,最常用的算法是基于深度神經(jīng)網(wǎng)絡(luò),這種算法保證了高效率,但需要高性能的計(jì)算平臺(tái)。在自動(dòng)駕駛汽車的情況下,即。汽車,還有無(wú)人機(jī),需要使用計(jì)算能力有限的嵌入式平臺(tái),這使得難以滿足上述要求??梢酝ㄟ^使用適當(dāng)?shù)囊韵路绞絹韺?shí)現(xiàn)網(wǎng)絡(luò)復(fù)雜度的降低:架構(gòu)、表示(降低的數(shù)值精度、量化、修剪)和計(jì)算平臺(tái)。在本文中,我們專注于第一個(gè)因素-使用所謂的檢測(cè)分割網(wǎng)絡(luò)作為感知系統(tǒng)的一個(gè)組成部分。我們考慮了分割的可駕駛區(qū)域和道路標(biāo)記的任務(wù),結(jié)合所選對(duì)象(行人,交通燈和障礙物)的檢測(cè)。我們比較了文獻(xiàn)中描述的三種不同架構(gòu)的性能:MultiTask V3、HybridNets和YOLOP。我們進(jìn)行了一個(gè)自定義數(shù)據(jù)集的實(shí)驗(yàn),該數(shù)據(jù)集包括約500個(gè)可駕駛區(qū)域和車道標(biāo)記的圖像,以及250個(gè)檢測(cè)到的物體的圖像。在分析的三種方法中,MultiTask V3被證明是最好的,實(shí)現(xiàn)了99%的mAP_50檢測(cè),97%的MIoU可駕駛區(qū)域分割,91%的MIoU車道分割,以及124 fps的RTX 3060圖形卡。該架構(gòu)是一個(gè)很好的解決方案,嵌入式感知系統(tǒng)的自動(dòng)駕駛車輛。代碼可在以下網(wǎng)址獲得:https://github.com/vision-agh/MMAR_2023。

1.7 Manga109Dialog A Large-scale Dialogue Dataset for Comics Speaker Detection

用于漫畫說話人檢測(cè)的大規(guī)模對(duì)話數(shù)據(jù)集Manga109Dialog

論文地址:

https://arxiv.org/abs/2306.17469

【計(jì)算機(jī)視覺 | 目標(biāo)檢測(cè)】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測(cè)的學(xué)術(shù)速遞(7 月 3 日論文合集),目標(biāo)檢測(cè)經(jīng)典論文導(dǎo)讀,計(jì)算機(jī)視覺arxiv最新論文,計(jì)算機(jī)視覺,目標(biāo)檢測(cè),目標(biāo)跟蹤,人工智能
不斷擴(kuò)大的電子漫畫市場(chǎng)激發(fā)了人們對(duì)開發(fā)分析漫畫的自動(dòng)化方法的興趣。為了進(jìn)一步理解漫畫,需要一種自動(dòng)化的方法來將漫畫中的文本鏈接到說這些話的角色。漫畫說話人檢測(cè)的研究具有實(shí)際應(yīng)用價(jià)值,如有聲讀物的自動(dòng)角色分配、根據(jù)人物性格的自動(dòng)翻譯、人物關(guān)系和故事的推斷等。 為了解決說話人到文本注釋不足的問題,我們基于Manga109創(chuàng)建了一個(gè)新的注釋數(shù)據(jù)集Manga109Dialog。Manga109Dialog是世界上最大的漫畫揚(yáng)聲器注釋數(shù)據(jù)集,包含132,692個(gè)揚(yáng)聲器到文本對(duì)。我們進(jìn)一步將我們的數(shù)據(jù)集劃分為不同的水平預(yù)測(cè)困難,以評(píng)估說話人檢測(cè)方法更合適。與現(xiàn)有的方法主要基于距離,我們提出了一種基于深度學(xué)習(xí)的方法,使用場(chǎng)景圖生成模型。由于漫畫的獨(dú)特功能,我們提高了我們提出的模型的性能,考慮框架閱讀順序。我們使用Manga109Dialog和其他數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明,我們的場(chǎng)景圖為基礎(chǔ)的方法優(yōu)于現(xiàn)有的方法,實(shí)現(xiàn)了超過75%的預(yù)測(cè)準(zhǔn)確率。

1.8 GMM: Delving into Gradient Aware and Model Perceive Depth Mining for Monocular 3D Detection

GMM:用于單目三維檢測(cè)的梯度感知和模型感知深度挖掘研究

論文地址:

https://arxiv.org/abs/2306.17450

【計(jì)算機(jī)視覺 | 目標(biāo)檢測(cè)】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測(cè)的學(xué)術(shù)速遞(7 月 3 日論文合集),目標(biāo)檢測(cè)經(jīng)典論文導(dǎo)讀,計(jì)算機(jī)視覺arxiv最新論文,計(jì)算機(jī)視覺,目標(biāo)檢測(cè),目標(biāo)跟蹤,人工智能
深度感知是單眼3D檢測(cè)任務(wù)的關(guān)鍵組成部分,通常涉及不適定問題。鑒于樣本挖掘技術(shù)在二維物體檢測(cè)中的成功,我們提出了一種簡(jiǎn)單而有效的挖掘策略,以提高三維物體檢測(cè)中的深度感知。具體地,我們引入了一個(gè)簡(jiǎn)單的度量來評(píng)估深度預(yù)測(cè)的質(zhì)量,它選擇了挖掘的樣本的模型。此外,我們提出了梯度感知和模型感知挖掘策略(GMM)的深度學(xué)習(xí),它利用預(yù)測(cè)的深度質(zhì)量,通過簡(jiǎn)單的挖掘更好的深度學(xué)習(xí)。GMM是一種通用策略,可以很容易地應(yīng)用于幾種最先進(jìn)的單眼3D檢測(cè)器,提高深度預(yù)測(cè)的準(zhǔn)確性。在nuScenes數(shù)據(jù)集上的大量實(shí)驗(yàn)表明,所提出的方法顯著提高了3D對(duì)象檢測(cè)的性能,同時(shí)優(yōu)于其他國(guó)家的最先進(jìn)的樣本挖掘技術(shù)相當(dāng)大的幅度。在nuScenes基準(zhǔn)測(cè)試中,GMM在單眼目標(biāo)檢測(cè)方面達(dá)到了最先進(jìn)的性能(42.1% mAP和47.3% NDS)。

1.9 Defense against Adversarial Cloud Attack on Remote Sensing Salient Object Detection

遙感顯著目標(biāo)檢測(cè)中對(duì)敵云攻擊的防御

論文地址:

https://arxiv.org/abs/2306.17431

【計(jì)算機(jī)視覺 | 目標(biāo)檢測(cè)】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測(cè)的學(xué)術(shù)速遞(7 月 3 日論文合集),目標(biāo)檢測(cè)經(jīng)典論文導(dǎo)讀,計(jì)算機(jī)視覺arxiv最新論文,計(jì)算機(jī)視覺,目標(biāo)檢測(cè),目標(biāo)跟蹤,人工智能
在遙感圖像中提取顯著目標(biāo)在多學(xué)科交叉研究中具有廣泛的應(yīng)用前景。目前已有的許多深度學(xué)習(xí)方法被提出用于遙感圖像中的顯著目標(biāo)檢測(cè)(SOD),并取得了顯著的效果。然而,最近通過改變?cè)歼b感圖像上的幾個(gè)像素值而生成的對(duì)抗性攻擊示例可能會(huì)導(dǎo)致訓(xùn)練良好的基于深度學(xué)習(xí)的SOD模型崩潰。與現(xiàn)有的方法添加擾動(dòng)到原始圖像不同,我們提出了聯(lián)合調(diào)整對(duì)抗曝光和添加擾動(dòng)的攻擊和約束圖像接近多云圖像作為對(duì)抗云。云是遙感圖像中自然存在的一種普遍現(xiàn)象,但基于偽裝云的遙感圖像對(duì)抗攻擊和防御研究還不多。此外,我們將DefenseNet設(shè)計(jì)為對(duì)抗性多云圖像的可學(xué)習(xí)預(yù)處理,以保持基于深度學(xué)習(xí)的遙感SOD模型的性能,而無(wú)需調(diào)整已經(jīng)部署的深度SOD模型。通過考慮常規(guī)和廣義對(duì)抗實(shí)例,所提出的防御網(wǎng)可以在白盒設(shè)置中防御所提出的對(duì)抗云,在黑盒設(shè)置中防御其他攻擊方法。從公共遙感SOD數(shù)據(jù)集(EORSSD)的綜合基準(zhǔn)測(cè)試的實(shí)驗(yàn)結(jié)果表明,有希望的防御對(duì)抗云攻擊。文章來源地址http://www.zghlxwxcb.cn/news/detail-535241.html

到了這里,關(guān)于【計(jì)算機(jī)視覺 | 目標(biāo)檢測(cè)】arxiv 計(jì)算機(jī)視覺關(guān)于目標(biāo)檢測(cè)的學(xué)術(shù)速遞(7 月 3 日論文合集)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包