国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

AI識鳥,基于YOLOv5【n/s/m/l/x】全系列參數(shù)模型開發(fā)構(gòu)建工業(yè)野外場景下鳥類檢測識別分析系統(tǒng)

這篇具有很好參考價值的文章主要介紹了AI識鳥,基于YOLOv5【n/s/m/l/x】全系列參數(shù)模型開發(fā)構(gòu)建工業(yè)野外場景下鳥類檢測識別分析系統(tǒng)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

之前無意間看到一個公司專門是做鳥類識別的,據(jù)說已經(jīng)積累了大量的行業(yè)領(lǐng)域數(shù)據(jù)集且技術(shù)已經(jīng)深耕好多年了,有幸體驗過實際的產(chǎn)品感覺還是很強大的,這里后面我就想著能夠自己去基于目標(biāo)檢測模型來開發(fā)構(gòu)建自己的鳥類檢測識別分析系統(tǒng)。

首先看下實例效果,如下所示:

yolov5,YOLO

這里構(gòu)建了包含20種鳥類的數(shù)據(jù)集,實例數(shù)據(jù)如下所示:

yolov5,YOLO

yolov5,YOLO

本文是選擇的是YOLOv5算法模型來完成本文項目的開發(fā)構(gòu)建。相較于前兩代的算法模型,YOLOv5可謂是集大成者,達到了SOTA的水平,下面簡單對v3-v5系列模型的演變進行簡單介紹總結(jié)方便對比分析學(xué)習(xí):
【YOLOv3】
YOLOv3(You Only Look Once version 3)是一種基于深度學(xué)習(xí)的快速目標(biāo)檢測算法,由Joseph Redmon等人于2018年提出。它的核心技術(shù)原理和亮點如下:
技術(shù)原理:
YOLOv3采用單個神經(jīng)網(wǎng)絡(luò)模型來完成目標(biāo)檢測任務(wù)。與傳統(tǒng)的目標(biāo)檢測方法不同,YOLOv3將目標(biāo)檢測問題轉(zhuǎn)化為一個回歸問題,通過卷積神經(jīng)網(wǎng)絡(luò)輸出圖像中存在的目標(biāo)的邊界框坐標(biāo)和類別概率。
YOLOv3使用Darknet-53作為骨干網(wǎng)絡(luò),用來提取圖像特征。檢測頭(detection head)負責(zé)將提取的特征映射到目標(biāo)邊界框和類別預(yù)測。
亮點:
YOLOv3在保持較高的檢測精度的同時,能夠?qū)崿F(xiàn)非??斓臋z測速度。相較于一些基于候選區(qū)域的目標(biāo)檢測算法(如Faster R-CNN、SSD等),YOLOv3具有更高的實時性能。
YOLOv3對小目標(biāo)和密集目標(biāo)的檢測效果較好,同時在大目標(biāo)的檢測精度上也有不錯的表現(xiàn)。
YOLOv3具有較好的通用性和適應(yīng)性,適用于各種目標(biāo)檢測任務(wù),包括車輛檢測、行人檢測等。
【YOLOv4】
YOLOv4是一種實時目標(biāo)檢測模型,它在速度和準(zhǔn)確度上都有顯著的提高。相比于其前一代模型YOLOv3,YOLOv4在保持較高的檢測精度的同時,還提高了檢測速度。這主要得益于其采用的CSPDarknet53網(wǎng)絡(luò)結(jié)構(gòu),主要有三個方面的優(yōu)點:增強CNN的學(xué)習(xí)能力,使得在輕量化的同時保持準(zhǔn)確性;降低計算瓶頸;降低內(nèi)存成本。YOLOv4的目標(biāo)檢測策略采用的是“分而治之”的策略,將一張圖片平均分成7×7個網(wǎng)格,每個網(wǎng)格分別負責(zé)預(yù)測中心點落在該網(wǎng)格內(nèi)的目標(biāo)。這種方法不需要額外再設(shè)計一個區(qū)域提議網(wǎng)絡(luò)(RPN),從而減少了訓(xùn)練的負擔(dān)。然而,盡管YOLOv4在許多方面都表現(xiàn)出色,但它仍然存在一些不足。例如,小目標(biāo)檢測效果較差。此外,當(dāng)需要在資源受限的設(shè)備上部署像YOLOv4這樣的大模型時,模型壓縮是研究人員重新調(diào)整較大模型所需資源消耗的有用工具。
優(yōu)點:
速度:YOLOv4 保持了 YOLO 算法一貫的實時性,能夠在檢測速度和精度之間實現(xiàn)良好的平衡。
精度:YOLOv4 采用了 CSPDarknet 和 PANet 兩種先進的技術(shù),提高了檢測精度,特別是在檢測小型物體方面有顯著提升。
通用性:YOLOv4 適用于多種任務(wù),如行人檢測、車輛檢測、人臉檢測等,具有較高的通用性。
模塊化設(shè)計:YOLOv4 中的組件可以方便地更換和擴展,便于進一步優(yōu)化和適應(yīng)不同場景。
缺點:
內(nèi)存占用:YOLOv4 模型參數(shù)較多,因此需要較大的內(nèi)存來存儲和運行模型,這對于部分硬件設(shè)備來說可能是一個限制因素。
訓(xùn)練成本:YOLOv4 模型需要大量的訓(xùn)練數(shù)據(jù)和計算資源才能達到理想的性能,這可能導(dǎo)致訓(xùn)練成本較高。
精確度與速度的權(quán)衡:雖然 YOLOv4 在速度和精度之間取得了較好的平衡,但在極端情況下,例如檢測高速移動的物體或復(fù)雜背景下的物體時,性能可能會受到影響。
誤檢和漏檢:由于 YOLOv4 采用單一網(wǎng)絡(luò)對整個圖像進行預(yù)測,可能會導(dǎo)致一些誤檢和漏檢現(xiàn)象。

【YOLOv5】
YOLOv5是一種快速、準(zhǔn)確的目標(biāo)檢測模型,由Glen Darby于2020年提出。相較于前兩代模型,YOLOv5集成了眾多的tricks達到了性能的SOTA:
技術(shù)原理:
YOLOv5同樣采用單個神經(jīng)網(wǎng)絡(luò)模型來完成目標(biāo)檢測任務(wù),但采用了新的神經(jīng)網(wǎng)絡(luò)架構(gòu),融合了領(lǐng)先的輕量級模型設(shè)計理念。YOLOv5使用較小的骨干網(wǎng)絡(luò)和新的檢測頭設(shè)計,以實現(xiàn)更快的推斷速度,并在不降低精度的前提下提高目標(biāo)檢測的準(zhǔn)確性。
亮點:
YOLOv5在模型結(jié)構(gòu)上進行了改進,引入了更先進的輕量級網(wǎng)絡(luò)架構(gòu),因此在速度和精度上都有所提升。
YOLOv5支持更靈活的模型大小和預(yù)訓(xùn)練選項,可以根據(jù)任務(wù)需求選擇不同大小的模型,同時提供豐富的數(shù)據(jù)增強擴展、模型集成等方法來提高檢測精度。YOLOv5通過使用更簡潔的代碼實現(xiàn),提高了模型的易用性和可擴展性。

訓(xùn)練數(shù)據(jù)配置文件如下:

# Dataset
path: ./dataset
train:
  - images/train
val:
  - images/test
test:
  - images/test

# Classes
names:
  0: BlackFootedAlbatross
  1: LaysanAlbatross
  2: SootyAlbatross
  3: GrooveBilledAni
  4: CrestedAuklet
  5: LeastAuklet
  6: ParakeetAuklet
  7: RhinocerosAuklet
  8: BrewerBlackbird
  9: RedwingedBlackbird
  10: RustyBlackbird
  11: YellowHeadedBlackbird
  12: Bobolink
  13: IndigoBunting
  14: LazuliBunting
  15: PaintedBunting
  16: Cardinal
  17: SpottedCatbird
  18: GrayCatbird
  19: YellowBreastedChat

實驗截止目前,本文將YOLOv5系列五款不同參數(shù)量級的模型均進行了開發(fā)評測,接下來看下模型詳情:

# Ultralytics YOLO ??, AGPL-3.0 license
# YOLOv5 object detection model with P3-P5 outputs. For details see https://docs.ultralytics.com/models/yolov5
 
# Parameters
nc: 20  # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov5n.yaml' will call yolov5.yaml with scale 'n'
  # [depth, width, max_channels]
  n: [0.33, 0.25, 1024]
  s: [0.33, 0.50, 1024]
  m: [0.67, 0.75, 1024]
  l: [1.00, 1.00, 1024]
  x: [1.33, 1.25, 1024]
 
# YOLOv5 v6.0 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Conv, [64, 6, 2, 2]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 3, C3, [128]],
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 6, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 3, C3, [1024]],
   [-1, 1, SPPF, [1024, 5]],  # 9
  ]
 
# YOLOv5 v6.0 head
head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  # 13
 
   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 17 (P3/8-small)
 
   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 14], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)
 
   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 10], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)
 
   [[17, 20, 23], 1, Detect, [nc]],  # Detect(P3, P4, P5)
  ]

在實驗訓(xùn)練開發(fā)階段,所有的模型均保持完全相同的參數(shù)設(shè)置,等待訓(xùn)練完成后,來整體進行評測對比分析。

【F1值曲線】
F1值曲線是一種用于評估二分類模型在不同閾值下的性能的可視化工具。它通過繪制不同閾值下的精確率(Precision)、召回率(Recall)和F1分?jǐn)?shù)的關(guān)系圖來幫助我們理解模型的整體性能.F1分?jǐn)?shù)是精確率和召回率的調(diào)和平均值,它綜合考慮了兩者的性能指標(biāo)。F1值曲線可以幫助我們確定在不同精確率和召回率之間找到一個平衡點,以選擇最佳的閾值。

yolov5,YOLO

【loss曲線】

yolov5,YOLO

【Precision曲線】
精確率曲線(Precision-Recall Curve)是一種用于評估二分類模型在不同閾值下的精確率性能的可視化工具。它通過繪制不同閾值下的精確率和召回率之間的關(guān)系圖來幫助我們了解模型在不同閾值下的表現(xiàn)。精確率(Precision)是指被正確預(yù)測為正例的樣本數(shù)占所有預(yù)測為正例的樣本數(shù)的比例。召回率(Recall)是指被正確預(yù)測為正例的樣本數(shù)占所有實際為正例的樣本數(shù)的比例。

yolov5,YOLO

【Recall曲線】
召回率曲線(Recall Curve)是一種用于評估二分類模型在不同閾值下的召回率性能的可視化工具。它通過繪制不同閾值下的召回率和對應(yīng)的精確率之間的關(guān)系圖來幫助我們了解模型在不同閾值下的表現(xiàn)。召回率(Recall)是指被正確預(yù)測為正例的樣本數(shù)占所有實際為正例的樣本數(shù)的比例。召回率也被稱為靈敏度(Sensitivity)或真正例率(True Positive Rate)。

yolov5,YOLO

從整體實驗結(jié)果對比來看:n系列的模型效果最差,被其他幾款模型拉開了明顯的差距,s系列的模型在60個epoch之前同樣被拉開了明顯的差距,隨后達到了與其他幾款模型相近的水準(zhǔn),m和l系列的模型性能相近,x系列的模型最優(yōu),略高于m和l系列的模型,考慮到計算量的問題,這里我們最終選擇使用m系列的模型來作為最終的推理模型。

接下來就以m系列的模型為基準(zhǔn),詳細看下結(jié)果詳情:

【Batch實例】

yolov5,YOLO

【數(shù)據(jù)分布可視化】

yolov5,YOLO

【PR曲線】

yolov5,YOLO

【訓(xùn)練可視化】

yolov5,YOLO

【混淆矩陣】

yolov5,YOLO

做下來感覺還是蠻有意思的,這個跟很實際的野外場景還是有區(qū)別的,畢竟真實的野外場景下鳥類個體目標(biāo)都是很小的,檢測識別難度也會更大,因為沒有實際條件獲取到高質(zhì)量的真實野外場景下的數(shù)據(jù)集,這里的實驗開發(fā)數(shù)據(jù)集以實驗性質(zhì)為主,感興趣的話也都可以試試看!

如果自己不具備開發(fā)訓(xùn)練的資源條件或者是沒有時間自己去訓(xùn)練的話這里我提供出來對應(yīng)的訓(xùn)練結(jié)果可供自行按需索取。

單個模型的訓(xùn)練結(jié)果默認(rèn)YOLOv5s

全系列五個模型的訓(xùn)練結(jié)果總集文章來源地址http://www.zghlxwxcb.cn/news/detail-836761.html

到了這里,關(guān)于AI識鳥,基于YOLOv5【n/s/m/l/x】全系列參數(shù)模型開發(fā)構(gòu)建工業(yè)野外場景下鳥類檢測識別分析系統(tǒng)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • CSDN獨家|YOLOv5改進、YOLOv7改進、YOLOv8改進、YOLOX改進目錄一覽|YOLO改進模型全系列目錄(芒果書系列) | 人工智能專家老師聯(lián)袂推薦

    ?? 《芒果書》系列改進專欄內(nèi)的改進文章,均包含多種模型改進方式,均適用于 YOLOv3 、 YOLOv4 、 YOLOR 、 YOLOX 、 YOLOv5 、 YOLOv7 、 YOLOv8 改進(重點)?。?! ?? 專欄創(chuàng)新點教程 均有不少同學(xué)反應(yīng)和我說已經(jīng)在自己的數(shù)據(jù)集上有效漲點啦??! 包括COCO數(shù)據(jù)集也能漲點 , 所有文

    2024年02月03日
    瀏覽(104)
  • 實踐航拍小目標(biāo)檢測,基于YOLOv8全系列【n/s/m/l/x】參數(shù)模型開發(fā)構(gòu)建無人機航拍場景下的小目標(biāo)檢測識別分析系統(tǒng)

    實踐航拍小目標(biāo)檢測,基于YOLOv8全系列【n/s/m/l/x】參數(shù)模型開發(fā)構(gòu)建無人機航拍場景下的小目標(biāo)檢測識別分析系統(tǒng)

    關(guān)于無人機相關(guān)的場景在我們之前的博文也有一些比較早期的實踐,感興趣的話可以自行移步閱讀即可: 《deepLabV3Plus實現(xiàn)無人機航拍目標(biāo)分割識別系統(tǒng)》 《基于目標(biāo)檢測的無人機航拍場景下小目標(biāo)檢測實踐》 《助力環(huán)保河道水質(zhì)監(jiān)測,基于yolov5全系列模型【n/s/m/l/x】開發(fā)構(gòu)

    2024年03月21日
    瀏覽(33)
  • 【Yolov8】基于C#和TensorRT部署Yolov8全系列模型

    【Yolov8】基于C#和TensorRT部署Yolov8全系列模型

    ? 該項目主要基于TensorRT模型部署套件,在C#平臺部署Yolov8模型,包括Yolov8系列的對象檢測、圖像分割、姿態(tài)識別和圖像分類模型,實現(xiàn)C#平臺推理加速Yolov8模型。 完整范例代碼: ? GitHub平臺:guojin-yan/Csharp_deploy_Yolov8 (github.com) ? Gitee平臺:Guojin Yan/基于Csharp部署Yolov8系列模

    2024年02月06日
    瀏覽(20)
  • YOLOv1-YOLOv7全系列解析匯總

    YOLOv1-YOLOv7全系列解析匯總

    導(dǎo)讀 目標(biāo)檢測Yolo算法是非常經(jīng)典且應(yīng)用廣泛的算法,而在Yolo中,又分成了輸入端、網(wǎng)絡(luò)推理、輸出層,每個部分都可以延伸出很多的優(yōu)化方式,本文主要從Yolov1~v7各個版本的Backbone,Neck,Head,Tricks進行了講解,希望對大家有幫助。 近年來YOLO系列層出不窮,更新不斷,已經(jīng)

    2024年02月16日
    瀏覽(27)
  • YOLOv8-Seg改進:輕量化改進 | 華為GhostNet再升級,全系列硬件上最優(yōu)極簡AI網(wǎng)絡(luò)G_ghost | IJCV22

    YOLOv8-Seg改進:輕量化改進 | 華為GhostNet再升級,全系列硬件上最優(yōu)極簡AI網(wǎng)絡(luò)G_ghost | IJCV22

    ?????? 本文改進: ??巧妙引入跨層的廉價操作,減少計算量的同時減少的內(nèi)存數(shù)據(jù)搬運,基于此設(shè)計了GPU版GhostNet,G-GhostNet與YOLOV8建立輕量結(jié)合 ?????? YOLOv8-seg創(chuàng)新專欄 : 學(xué)姐帶你學(xué)習(xí)YOLOv8,從入門到創(chuàng)新,輕輕松松搞定科研; 1)手把手教你如何訓(xùn)練YOLOv8-seg; 2)模

    2024年02月02日
    瀏覽(28)
  • 助力智能密集人群檢測計數(shù),基于YOLOv8全系列模型【n/s/m/l/x】開發(fā)構(gòu)建通用場景下密集人群檢測計數(shù)識別系統(tǒng)

    助力智能密集人群檢測計數(shù),基于YOLOv8全系列模型【n/s/m/l/x】開發(fā)構(gòu)建通用場景下密集人群檢測計數(shù)識別系統(tǒng)

    在一些人流量比較大的場合,或者是一些特殊時刻、時段、節(jié)假日等特殊時期下,密切關(guān)注當(dāng)前系統(tǒng)所承載的人流量是十分必要的,對于超出系統(tǒng)負荷容量的情況做到及時預(yù)警對于管理團隊來說是保障人員安全的重要手段,本文的主要目的是想要基于通用的數(shù)據(jù)開發(fā)構(gòu)建用于

    2024年01月23日
    瀏覽(28)
  • FreeRTOS 全系列筆記——基于V10.4

    基于crotex-m處理器新建FreeRTOS工程 為什么使用嵌入式實時操作系統(tǒng)(RTOS) FreeRTOS——創(chuàng)建任務(wù) FreeRTOS的任務(wù)調(diào)度和管理 FreeRTOS-內(nèi)核鏈表數(shù)據(jù)結(jié)構(gòu) FreeRTOS-內(nèi)核對時間的測量 FreeRTOS-內(nèi)核中的鉤子(Hook)函數(shù) FreeRTOS-軟件定時器的使用 FreeRTOS-軟件定時器的實現(xiàn)原理 FreeRTOS-延后執(zhí)行機制

    2024年02月04日
    瀏覽(26)
  • Nooploop空循環(huán) 基于ArduPilot開源自動駕駛儀平臺(APM固件)的TOFSense/-F/-M全系列激光測距傳感器應(yīng)用圖文教程

    Nooploop空循環(huán) 基于ArduPilot開源自動駕駛儀平臺(APM固件)的TOFSense/-F/-M全系列激光測距傳感器應(yīng)用圖文教程

    自2023/7/10日起ArduPilot飛控固件開始支持深圳空循環(huán)科技有限公司的TOFSense系列產(chǎn)品。從Plane/Copter/Rover 4.5 開始,Ardupilot 固件添加了對 TOFSense協(xié)議的支持,用于避障和高度保持。用戶如果使用低于該版本的固件需要自行將相關(guān)文件進行移植與適當(dāng)修改,才能支持TOFSense,TOFSense傳

    2024年02月04日
    瀏覽(172)
  • 云安全系列4:解析云安全工具集

    云安全系列4:解析云安全工具集

    隨著組織越來越多地將數(shù)據(jù)和應(yīng)用轉(zhuǎn)移到云端,云安全在確保工作負載安全方面變得至關(guān)重要。Gartener 就表示:“云優(yōu)先戰(zhàn)略現(xiàn)在已十分普遍,甚至在不愿承擔(dān)風(fēng)險的企業(yè)機構(gòu)中也是如此。但由于缺乏確保安全云計算部署所必需的技能和工具,因此執(zhí)行仍然受到阻礙。” 在了

    2024年02月02日
    瀏覽(28)
  • Radware負載均衡-全系列產(chǎn)品證書更新(二)

    Radware負載均衡-全系列產(chǎn)品證書更新(二)

    簡單介紹一下關(guān)于Radware APSolute Vision平臺的證書更新。 更新證書有兩種方式,一種為自簽發(fā),另外一種為導(dǎo)入第三方證書,且更新證書僅能通過命令行的形式更新證書。兩種方式都會導(dǎo)致APSolute Vision平臺設(shè)備的重啟(老版本,最新版本只會導(dǎo)致當(dāng)前訪問vision會話中斷),請注

    2024年01月16日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包