国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

英文論文(sci)解讀復(fù)現(xiàn)【NO.6】ASFF-YOLOv5:基于多尺度特征融合的無人機圖像道路交通多元檢測方法

這篇具有很好參考價值的文章主要介紹了英文論文(sci)解讀復(fù)現(xiàn)【NO.6】ASFF-YOLOv5:基于多尺度特征融合的無人機圖像道路交通多元檢測方法。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

此前出了目標(biāo)檢測算法改進專欄,但是對于應(yīng)用于什么場景,需要什么改進方法對應(yīng)與自己的應(yīng)用場景有效果,并且多少改進點能發(fā)什么水平的文章,為解決大家的困惑,此系列文章旨在給大家解讀發(fā)表高水平學(xué)術(shù)期刊中的 SCI論文,并對相應(yīng)的SCI期刊進行介紹,幫助大家解答疑惑,助力科研論文投稿。解讀的系列文章,本人會進行 創(chuàng)新點代碼復(fù)現(xiàn),有需要的朋友可關(guān)注私信我獲取。

英文論文(sci)解讀復(fù)現(xiàn)【NO.6】ASFF-YOLOv5:基于多尺度特征融合的無人機圖像道路交通多元檢測方法,英文論文解讀復(fù)現(xiàn),深度學(xué)習(xí),計算機視覺,目標(biāo)檢測

一、摘要

ASFF-YOLOv5:基于多尺度特征融合的無人機圖像道路交通多要素檢測方法道路交通要素是道路的重要組成部分,是構(gòu)建基礎(chǔ)交通地理信息數(shù)據(jù)庫的主要要素。然而,在道路交通要素的檢測和識別中仍然存在以下問題:元素密集,多尺度目標(biāo)檢測效果差,小目標(biāo)易受遮擋因素影響。為此,提出一種自適應(yīng)空間特征融合(ASFF)YOLOv 5網(wǎng)絡(luò)(ASFF-YOLOv 5),用于多尺度道路交通要素的自動識別和檢測。首先,利用K-means++算法對多尺度道路交通元素的范圍進行聚類統(tǒng)計,得到適合數(shù)據(jù)集的候選框大小。然后,空間金字塔池快速(SPPF)結(jié)構(gòu),用于提高分類精度和速度,同時實現(xiàn)更豐富的特征信息提取。提出了一種基于感受野塊(RFB)的ASFF策略,以提高特征尺度不變性,增強小目標(biāo)檢測效果。最后通過計算平均精密度(mAP)來評價實驗效果。實驗結(jié)果表明,該方法的mAP值為93.1%,即比原YOLOv 5車型提升19.2%。

二、網(wǎng)絡(luò)模型及核心創(chuàng)新點

英文論文(sci)解讀復(fù)現(xiàn)【NO.6】ASFF-YOLOv5:基于多尺度特征融合的無人機圖像道路交通多元檢測方法,英文論文解讀復(fù)現(xiàn),深度學(xué)習(xí),計算機視覺,目標(biāo)檢測

1.利用K-means++算法對多尺度道路交通元素的范圍進行聚類統(tǒng)計,得到適合數(shù)據(jù)集的候選框大小。

2.空間金字塔池快速(SPPF)結(jié)構(gòu),用于提高分類精度和速度,同時實現(xiàn)更豐富的特征信息提取。

3.提出基于感受野塊(RFB)的ASFF策略,以提高特征尺度不變性,增強小目標(biāo)檢測效果。

三、實驗效果(部分展示)

1.比較實驗:為了驗證該方法的有效性,本文對經(jīng)典的目標(biāo)檢測網(wǎng)絡(luò)算法進行了比較。SSD ,Retinanet ,F(xiàn)aster R-CNN,YOLOv 3 YOLOv 4 ,YOLOv 5 網(wǎng)絡(luò)以及以前的研究被選擇用于與所提出的方法進行比較實驗。英文論文(sci)解讀復(fù)現(xiàn)【NO.6】ASFF-YOLOv5:基于多尺度特征融合的無人機圖像道路交通多元檢測方法,英文論文解讀復(fù)現(xiàn),深度學(xué)習(xí),計算機視覺,目標(biāo)檢測

?在實驗中,AP,精度,召回率,和mAP評價指標(biāo)的值進行了計算和比較時,道路交通的多元數(shù)據(jù)集進行訓(xùn)練。如表3所示,統(tǒng)計了不同網(wǎng)絡(luò)模型下多元道路交通的識別精度。其中,通過比較每個網(wǎng)絡(luò)和所提出的方法來計算增加的mAP值。

2.消融實驗

為了驗證該算法的有效性,在多元素道路交通數(shù)據(jù)集上進行了消融實驗,并對K-means++、SPPF和ASFF融合后的實驗結(jié)果進行了比較。計算并比較AP、精確度、召回率和mAP值。消融測試結(jié)果如表5所示。

英文論文(sci)解讀復(fù)現(xiàn)【NO.6】ASFF-YOLOv5:基于多尺度特征融合的無人機圖像道路交通多元檢測方法,英文論文解讀復(fù)現(xiàn),深度學(xué)習(xí),計算機視覺,目標(biāo)檢測

?實驗結(jié)果表明,上述消融實驗可以取得良好的斑馬線檢測結(jié)果,沒有檢測錯誤或漏檢。但上述燒蝕實驗在檢測街面停車位時均出現(xiàn)漏檢,漏檢街面停車位數(shù)量在3 ~ 11個之間。從總體結(jié)果來看,雖然YOLOv 5 + SPPF方法的平均檢測準(zhǔn)確率最高,但漏檢斑點數(shù)最嚴(yán)重,為11個。與燒蝕實驗中出現(xiàn)的嚴(yán)重漏檢相比,該方法僅漏檢3次,是燒蝕實驗中漏檢次數(shù)最少的方法。該方法的檢測準(zhǔn)確率為93。5%,對于遮擋的路邊停車位,兩者僅相差0.28,但漏檢率大大降低。實驗證明,該方法在保證檢測正確性的同時,保持了檢測精度,尤其是在檢測遮擋小目標(biāo)和并列密集小目標(biāo)方面有很高的提高。

五、實驗結(jié)論

針對無人機遙感影像交通要素信息提取數(shù)據(jù)少、自動化程度低但要求高、要素規(guī)模小、易受環(huán)境干擾等問題,提出了一種基于ASFF-YOLOv 5的無人機遙感影像交通要素信息提取算法。該算法采用基于感受野模塊的自適應(yīng)空間特征融合方法,充分利用不同尺度信息,提高了特征尺度的不變性,提高了小目標(biāo)的檢測效果。當(dāng)檢測多個道路交通元素時,所提出的方法的mAP達到93。1%,即19。比原YOLOv5網(wǎng)絡(luò)提升2%。對比實驗和消融實驗表明,該方法能夠解決多要素道路交通的誤檢和漏檢問題,提高多要素道路中小目標(biāo)和密集目標(biāo)的檢測精度,為基礎(chǔ)地理交通信息數(shù)據(jù)庫建設(shè)提供了一種新的解決方案。

注:論文原文出自ASFF-YOLOv5: Multielement Detection Method for Road Traffic in UAV Images Based on Multiscale Feature Fusion 本文僅用于學(xué)術(shù)分享,如有侵權(quán),請聯(lián)系后臺作刪文處理。文章來源地址http://www.zghlxwxcb.cn/news/detail-531327.html

解讀的系列文章,本人已進行創(chuàng)新點代碼復(fù)現(xiàn),有需要的朋友歡迎關(guān)注私信我獲取 ?

到了這里,關(guān)于英文論文(sci)解讀復(fù)現(xiàn)【NO.6】ASFF-YOLOv5:基于多尺度特征融合的無人機圖像道路交通多元檢測方法的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 目標(biāo)檢測論文解讀復(fù)現(xiàn)之十六:基于改進YOLOv5的小目標(biāo)檢測算法

    目標(biāo)檢測論文解讀復(fù)現(xiàn)之十六:基于改進YOLOv5的小目標(biāo)檢測算法

    前言 此前出了目標(biāo)改進算法專欄,但是對于應(yīng)用于什么場景,需要什么改進方法對應(yīng)與自己的應(yīng)用場景有效果,并且多少改進點能發(fā)什么水平的文章,為解決大家的困惑,此系列文章旨在給大家解讀最新目標(biāo)檢測算法論文,幫助大家解答疑惑。解讀的系列文章,本人已進行創(chuàng)

    2024年02月03日
    瀏覽(22)
  • 一文解惑,對于SCI論文投稿Under Review狀態(tài)的一萬種解讀

    投稿干貨分享 SCI投稿后,難免有對著網(wǎng)站狂刷更新的經(jīng)歷,從投稿到接收,審稿過程不透明、周期長,且各期刊對稿件狀態(tài)并無統(tǒng)一說法,使得投稿者在投稿后變得很被動。 從With Editor變成Reviewer Assigned,再變成Under Review,心情就更加焦急和復(fù)雜,直到給出decision的那一刻。

    2024年02月09日
    瀏覽(18)
  • yolov5解讀,訓(xùn)練,復(fù)現(xiàn)

    yolov5解讀,訓(xùn)練,復(fù)現(xiàn)

    小白的第一篇csdn...最近在準(zhǔn)備小論文,大概率是目標(biāo)檢測方向了,沒經(jīng)驗,慢慢學(xué),本文只是跟著b站的天才up主一起訓(xùn)練和復(fù)現(xiàn),這里只是我記錄yolov5的學(xué)習(xí)歷程,都是大白話,沒有專業(yè)術(shù)語,肯定也會說錯很多東西,但是我都想記錄在這里,這樣就不會忘記啦,如果有幸被

    2024年02月10日
    瀏覽(21)
  • YOLOV7詳細解讀(二)論文解讀

    YOLOV7詳細解讀(二)論文解讀

    繼美團發(fā)布YOLOV6之后,YOLO系列原作者也發(fā)布了YOLOV7。 YOLOV7主要的貢獻在于: 1.模型重參數(shù)化 YOLOV7將模型重參數(shù)化引入到網(wǎng)絡(luò)架構(gòu)中,重參數(shù)化這一思想最早出現(xiàn)于REPVGG中。 2.標(biāo)簽分配策略 YOLOV7的標(biāo)簽分配策略采用的是YOLOV5的跨網(wǎng)格搜索,以及YOLOX的匹配策略。 3.ELAN高效網(wǎng)絡(luò)

    2024年02月05日
    瀏覽(21)
  • 【Yolov5】Yolov5添加ASFF, 網(wǎng)絡(luò)改進優(yōu)化

    【Yolov5】Yolov5添加ASFF, 網(wǎng)絡(luò)改進優(yōu)化

    ?????? Yolov5添加ASFF ?????? Yolov5是單階段目標(biāo)檢測算法的一種,網(wǎng)上有很多改進其性能的方法,添加ASFF模塊就是其中一種,但是ASFF本身是用于Yolov3的,在v5中無法直接應(yīng)用,且網(wǎng)上許多博客都是介紹這個模塊的原理,沒有直接可以應(yīng)用的代碼程序,我這里提供一種方案

    2023年04月08日
    瀏覽(75)
  • YOLOv5改進添加解耦頭、ASFF

    YOLOv5改進添加解耦頭、ASFF

    網(wǎng)上有很多添加解耦頭的博客,在此記錄下我使用解耦頭對YOLOv5改進,若侵權(quán)刪 解耦頭的介紹過段時間再寫,先直接上添加方法(這篇文章寫的很好,解釋了解耦頭的作用 ) ASFF我沒有使用過,但是按照下邊的方法添加后也能夠運行 我是在YOLOv5-7.0版本上進行修改,如果有什

    2024年02月06日
    瀏覽(23)
  • 經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細解讀(六)——DenseNet學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn))

    經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細解讀(六)——DenseNet學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn))

    上一篇我們介紹了ResNet:經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細解讀(五)——ResNet(殘差網(wǎng)絡(luò))學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn)) ResNet通過短路連接,可以訓(xùn)練出更深的CNN模型,從而實現(xiàn)更高的準(zhǔn)確度。今天我們要介紹的是 DenseNet(《Densely connected convolutional networks》) 模型,它的基本

    2024年02月03日
    瀏覽(62)
  • 經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細解讀(八)——ResNeXt學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn))

    經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細解讀(八)——ResNeXt學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn))

    今天我們一起來學(xué)習(xí)何愷明大神的又一經(jīng)典之作:? ResNeXt(《Aggregated Residual Transformations for Deep Neural Networks》) 。這個網(wǎng)絡(luò)可以被解釋為 VGG、ResNet?和 Inception 的結(jié)合體,它通過重復(fù)多個block(如在 VGG 中)塊組成,每個block塊聚合了多種轉(zhuǎn)換(如 Inception),同時考慮到跨層

    2024年02月03日
    瀏覽(30)
  • TPH-yolov5論文解讀

    TPH-yolov5論文解讀

    注:個人愚見,有問題歡迎批評指針。 論文:《TPH-YOLOv5: Improved YOLOv5 Based on Transformer Prediction Head for Object Detection on Drone-captured Scenarios》 ICCV 2021 Open Access Repository 代碼:GitHub - TfeiSong/tph-yolov5: CBAM-TPH-biFPN-yolov5 TPH:Transformer Prediction Head 總結(jié)比較實用的點: 1. tph(transformer pr

    2024年02月05日
    瀏覽(20)
  • 經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細解讀(五)——ResNet(殘差網(wǎng)絡(luò))學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn))

    經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細解讀(五)——ResNet(殘差網(wǎng)絡(luò))學(xué)習(xí)筆記(翻譯+精讀+代碼復(fù)現(xiàn))

    《Deep Residual Learning for Image Recognition》這篇論文是何愷明等大佬寫的,在深度學(xué)習(xí)領(lǐng)域相當(dāng)經(jīng)典,在2016CVPR獲得best paper。今天就讓我們一起來學(xué)習(xí)一下吧! 論文原文:https://arxiv.org/abs/1512.03385 前情回顧: 經(jīng)典神經(jīng)網(wǎng)絡(luò)論文超詳細解讀(一)——AlexNet學(xué)習(xí)筆記(翻譯+精讀)

    2024年02月08日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包