国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

《計算機視覺中的深度學習》之目標檢測算法原理

這篇具有很好參考價值的文章主要介紹了《計算機視覺中的深度學習》之目標檢測算法原理。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

參考:《計算機視覺中的深度學習》

概述

目標檢測的挑戰(zhàn):

  • 減少目標定位的準確度
  • 減少背景干擾
  • 提高目標定位的準確度

目標檢測系統(tǒng)常用評價指標:檢測速度和精度

提高精度:有效排除背景,光照和噪聲的影響
提高檢測速度:精簡檢測流程,簡化圖像處理算法

算法概述:傳統(tǒng)目標算法、基于候選區(qū)域的兩步算法、基于回歸的單步算法

1.傳統(tǒng)目標算法

對于區(qū)域選擇,傳統(tǒng)目標檢測最常用的兩種模型是滑動窗口模型與縮放窗口模型?;瑒哟翱谀P?,顧名思義,是通過設計好的窗口在圖像上進行滑動來檢測目標?;诨瑒哟暗臋z測算法的主要實現(xiàn)方法有兩種,分別為縮放檢測圖像法和縮放窗口法??s放檢測圖像法將待檢圖像進行不同尺度的縮放,形成一個縮放圖像集,然后用固定大小的滑動窗口掃描縮放圖像集中的每幅圖像,利用訓練好的分類器對掃描窗口進行判定,將目標窗口標記出來得到最終結果;縮放窗口法,其改變前一種算法對圖像進行縮放的思想,改為對窗口進行縮放,利用多種尺度和移動步長的掃描窗口掃描待檢圖像,最終同樣利用分類器進行判定并輸出結果。

2、基于候選區(qū)域的兩步算法

基于候選區(qū)域的目標檢測算法指需要兩步實現(xiàn)的采用 CNN 的目標檢測方法。首先需要進行區(qū)域生成(region proposal),獲得有可能包含待檢物體的候選框:然后對對應區(qū)域使用 CNN 對特征進行提取;再對樣本分類:最后回歸候選框使其包含區(qū)域更加精確??傮w流程可歸納為“區(qū)域生成一特征提取→分類及定位回歸一后處理”
該類算法使用候選區(qū)域替代原有的滑動窗口來實現(xiàn)特征區(qū)域的提取?;诤蜻x區(qū)域的兩步算法的目的是:在幾乎所有目標物體都有能夠區(qū)別于背景信息的特性的前提下,找到目標物體可能的存在位置,作為候選區(qū)域的形式輸出;再對這些候選區(qū)域提取特征向量,利用訓練好的分類器判定候選區(qū)域是否包含目標物體并輸出結果。這樣做的優(yōu)點在于大大減少了需要提取特征的圖像塊,可以使用復雜的特征和分類器對目標物體進行描述,以此提高目標檢測的性能。
該類算法通過將候選區(qū)域選取與特征提取兩個步驟加入深度學習優(yōu)化框架中,實現(xiàn)了端到端的優(yōu)化,相較于傳統(tǒng)方法得到了更優(yōu)秀的結果。

3.基于回歸的單步算法

Faster R-CNN作為基于候選區(qū)域的目標檢測算法的經(jīng)典代表,將一直以來分離的候選區(qū)域選取和卷積網(wǎng)絡融為一個整體,使用端到端網(wǎng)絡進行目標檢測。這樣的處理使得模型在速度上和精度上都得到了有效的提高。雖然在一定程度上解決了效率問題,但 FasteR-CNN 還是達不到實時的目標檢測的要求。因此,雖然候選區(qū)域算法和 CNN 極大地推動了目標檢測的發(fā)展,但是候選區(qū)域的生成需要耗費大量時間,達不到實時檢測的要求,這使得候選區(qū)域成為實時檢測的瓶頸。

2015 年提出的 YOLO(You Only Look Once)!模型將目標檢測問題看成一個回歸問題,把輸入圖像分割成邊界框和相應類別的概率。YOLO模型使用單一的網(wǎng)絡,能夠直接從整幅圖像輸出預測邊界框和所屬類別的概率。因為整個檢測在同一個網(wǎng)絡內進行,所以它可以實現(xiàn)真正的端到端的訓練和檢測,還能夠達到實時目標檢測的要求。YOLO模型把目標框的生成與識別進行結合,可以做到一步輸出。由于沒有候選區(qū)域的限制,模型能夠考慮更多的上下文信息,從而在很大程度上減少背景樣本的干擾,更能夠滿足目標檢測應用領域對實時性的要求。然而 YOLO 模型是通過提取整幅圖像的特征來預測邊框的,而在許多圖像中背景區(qū)域遠遠大于目標區(qū)域,這使得這類沒有候選區(qū)域的目標檢測算法在一些滉下表現(xiàn)并不好,因此 YOLO 模型在精度上比 Faster R-CNN 等基于候選區(qū)域的模型略微遜色,但是速度上的巨大提升依然體現(xiàn)出基于回歸的但不算法潛力,隨后推出的SSD,YOLO哥哥版本改進都推動了基于回歸的單步算法改進

評價指標

準確率,精確度,召回率,AP,mAP,IOU

《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測

《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測

傳統(tǒng)目標檢測算法

《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測
找到一個劃分超平面,讓訓練樣本與超平面之間有最大距離間隔,保證分類結果健壯性。

2.AdaBoost
AdaBoost 算法是 Boosting 算法的改進版,其核心思想是將多個弱分類器組合起來構成強分類器,且這些弱分類器是針對同一訓練集訓練的。在訓練的過程中,首先賦予訓練樣本相同的初始權值。在經(jīng)過不同的弱分類器過程中,樣本分類的準確度決定了該樣本的權重值,即樣本若被正確分類,則在構建下一級分類器時其權重值降低,選中的概率隨之減小,反之提高。這樣使得在構建分類器的過程中更加關注被錯誤分類的樣本,錯誤樣本在不斷地經(jīng)過分類器訓練后,被正確分類的概率提高,最終達到提高分類器準確度的目的。

基于候選區(qū)域的兩步算法

候選區(qū)域的思想與圖像興趣點檢測的思想類似,圖像興趣點利用人們自動將注意力放在一幅圖像中最顯著且最具分辨力的位置上的視覺特性,計算出這些點的位置,這大大減少了后續(xù)圖像處理的計算量:類似地,目標候選區(qū)域通過計算出可能存在目標物體的窗口,這大大減少了目標檢測計算量。

6.3.1 R-CNN 的實現(xiàn)
R-CNN(Region-CNN)3]是Ross Girshick于 2013年提出的基于候選區(qū)域的 CNN 結構。該網(wǎng)絡首次表明,將CNN與候選區(qū)域和特征提取結合,能夠比手工特征提取在目標檢測網(wǎng)絡上得到更好的性能,深度學習方法也自此在目標檢測領域確立了絕對的優(yōu)勢。其檢測過程如圖 6-7,具體如下

① 利用選擇性搜索(Selective Search)算法對輸入圖像進行區(qū)域選擇,提取 2000個左右的候選區(qū)域。
②)由于網(wǎng)絡結構中存在全連接層,需要將提取出的候選區(qū)域統(tǒng)一尺寸,此處將尺寸縮放至 227 像素x227 像素,再適當擴大以獲取更多上下文信息。
③ 使用卷積網(wǎng)絡對每個歸一化后的候選區(qū)域做特征提取操作,從每個候選區(qū)域提取4096 維的特征向量。
④)使用 SVM 對提取到的特征進行分類識別,
⑤使用邊框回歸(Bounding Box Regression)微調邊框位置:
《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測
《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測

《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測
《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測

基于回歸的單步算法

2015年提出的Yolo【You Only Look Once】模型將目標檢測問題看成一個回歸問題,把輸入圖像分割成邊界框和相應類別的概率。

YOLO算法本質:將圖片特征均勻分成n*n不重疊區(qū)域,每個區(qū)域生成錨框,對每個區(qū)域做softmax和bounding box預測。

優(yōu)點:

  • 端到端訓練(End-to-End Training):YOLO直接從整張圖片預測邊界框和類別,不需要復雜的多步驟流程,簡化了訓練過程,使得模型更加緊湊和高效。比SSD還簡單
  • 整體上下文感知(Context Awareness):由于YOLO在整個圖像上進行全局預測,因此它可以更好地捕捉到目標間的空間關系和全局上下文信息
  • 實時性(Speed):YOLO算法的核心優(yōu)勢在于其快速的檢測速度。通過一次性對整個圖像進行預測,而不是像滑動窗口或多階段檢測那樣逐個區(qū)域處理,大大減少了計算量,從而實現(xiàn)了接近實時甚至實時的檢測速度。

缺點:

  • 對小物體檢測精度不高:

    由于YOLO算法將輸入圖像劃分為固定的格子(grid cells),每個格子負責預測一定數(shù)量的邊界框(bounding boxes)。對于較小的目標,它們可能會落在一個格子的較小部分,導致預測的邊界框不夠精確或者漏檢。YOLO早期版本可能存在網(wǎng)格劃分過粗的問題,導致對小目標特征提取不足。

  • 對重疊和密集物體檢測不佳:
    YOLO在面對緊密排列或嚴重重疊的目標時,可能出現(xiàn)分配錯誤的問題,即一個格子可能無法準確地為多個相互覆蓋的目標分別生成合適的邊界框。

  • 精度相對較低:
    相比于兩階段檢測器如Faster R-CNN,在同等條件下,YOLO可能犧牲了一定的定位精度以換取速度。特別是在早期版本中,YOLO在回歸邊界框的位置和尺寸時的誤差較大,從而影響最終檢測的精度。

隨著YOLO算法的迭代更新,比如YOLOv3以及后續(xù)版本,針對上述部分問題進行了改進,如引入多尺度預測機制以提高對不同尺寸目標的檢測性能,采用更好的主干網(wǎng)絡架構增強特征提取能力,以及調整損失函數(shù)改善定位精度等措施。

《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測

《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測
在的關聯(lián)性

《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測
《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測

《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測

《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測

《計算機視覺中的深度學習》之目標檢測算法原理,計算機視覺,計算機視覺,深度學習,目標檢測

約束力位置預測的范圍后,網(wǎng)絡參數(shù)變得更容易學習,網(wǎng)絡變得穩(wěn)定,與唯獨聚類結合后,使用直接位置預測的 YOLOv2與手選錨框預測偏移值的方法相比,mAP 提高了約 5%。

6.多尺度訓練
YOLO 的網(wǎng)絡采用固定輸入 448x448 像素,為了使輸入圖像能夠實現(xiàn)多尺寸,YOLOv2每經(jīng)過 10輪的訓練,會重新選擇圖像的輸入尺寸,圖像的尺寸在320x320到608x608 像素之間,以 32的倍數(shù)遞增,調整好圖像尺寸后,調節(jié)網(wǎng)絡到相應的維度繼續(xù)進行訓練。這種策略使得網(wǎng)絡針對不同分辨率的圖像可以更好地預測,更適用于實際的檢測場景。此外,YOLOv2 還提出了一種新的分類骨干網(wǎng) Darknet-19,它有 19個卷積層和五個最大池化層,處理圖像所需的操作較少,但精度較高。以Resnet作為主干網(wǎng)的Faster R-CNN能實現(xiàn) 76.4%的 mAP 和5幀/秒,SSD500 能實現(xiàn) 76.8%的 mAP 和 19 幀/秒,而 Yolov2 能達到 78.6%的 mAP 和 40 幀/秒。如上所述,YOLOv2 可以實現(xiàn)高精度和高速度,這得益于七項主要的改進和一個新的主干網(wǎng)絡。

YOLO 多個版本改進

YOLO算法各個版本的改進和效果

YOLO(You Only Look Once)算法自2016年首次提出以來,經(jīng)歷了多個重要版本的改進,每個版本都在速度、精度、小目標檢測能力等方面有所突破。下面列舉幾個關鍵版本的改進點和效果:

  • YOLOv1
    提出時間:2016年
    主要特點:首次引入了端到端的目標檢測方法,通過單次前向傳播就能預測出圖像中的多個邊界框及其所屬類別,實現(xiàn)了非常快的速度。
    改進點:相比傳統(tǒng)的多階段檢測方法,YOLO大幅度提升了檢測速度,但精度相對較低,特別是對于小目標的檢測效果一般。

  • YOLOv2
    提出時間:2017年
    主要改進:
    引入了批量歸一化(Batch Normalization),加快了訓練速度并提高了模型的泛化能力。
    使用了 anchor boxes(先驗框)的概念,有助于更好定位不同尺寸和比例的目標。
    采用了更高效的卷積層設計,比如使用了稱為“Darknet-19”的新型網(wǎng)絡結構。
    實現(xiàn)了Anchor-based目標檢測,提升了對多種尺寸目標的檢測效果。
    提出了維度聚類(Dimension Clusters)方法優(yōu)化先驗框的選擇。
    通過細粒度特征融合,整合了不同層次的特征圖,增強了對小目標的檢測能力。
    效果:YOLOv2在保持較快的速度基礎上,顯著提高了檢測精度。

  • YOLOv3
    提出時間:2018年
    主要改進:
    使用了更深更大的網(wǎng)絡結構Darknet-53作為基礎網(wǎng)絡,增加了特征提取的能力。
    引入了多尺度預測機制,分別從不同分辨率的特征圖上預測邊界框,提升了對不同大小目標的適應性。
    使用更多的錨框數(shù)量,進一步優(yōu)化目標匹配策略。
    對損失函數(shù)進行了調整,使模型在訓練過程中能更好地平衡各種類型目標的學習。
    效果:YOLOv3在保持實時性的同時,進一步提高了檢測精度,尤其是對小目標的識別能力有了顯著提升。

  • YOLOv4
    提出時間:2020年
    主要改進:
    應用了更強大的Backbone網(wǎng)絡CSPDarknet53,融合了Cross-Stage Partial Network (CSPNet) 架構,減少冗余計算,提高效率。
    引入了Spatial Pyramid Pooling (SPP) 和 Path Aggregation Network (PANet),聚合多尺度特征,加強特征表達能力。
    使用了Mish激活函數(shù)、DropBlock正則化等新技術優(yōu)化模型性能。
    在訓練策略上使用了多種數(shù)據(jù)增強方法,以及CIOU loss來改進邊界框定位誤差。
    效果:YOLOv4在各項指標上取得了重大突破,不僅保持了原有的實時性,而且在COCO數(shù)據(jù)集上的mAP(平均精度均值)大幅提高,成為當時性能極佳的實時目標檢測模型。

  • YOLOv5
    提出時間:2020年后
    主要改進:
    由 Ultralytics 團隊開發(fā),基于PyTorch框架實現(xiàn),代碼開源易于使用和擴展。
    結構上繼續(xù)優(yōu)化,網(wǎng)絡更為輕量化,針對移動端和嵌入式設備做了適配。
    使用跨層特征融合和輕量級Backbone,例如CSPDarknet-tiny、CSPDarknet-S等。
    在訓練技巧上也有多項改進,包括對預訓練權重的選擇、數(shù)據(jù)增強策略、模型量化等方面。
    效果:YOLOv5在保持實時性的同時,進一步提升了模型性能,尤其適合于對速度要求較高的應用場景,同時在資源受限的環(huán)境下也能良好運行。
    總體來說,YOLO系列算法的每次升級都圍繞著提高檢測精度、優(yōu)化小目標檢測、提高運行速度和減輕模型體積等方面進行,不斷推動著目標檢測技術的發(fā)展。文章來源地址http://www.zghlxwxcb.cn/news/detail-843767.html

到了這里,關于《計算機視覺中的深度學習》之目標檢測算法原理的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 計算機視覺+深度學習+機器學習+opencv+目標檢測跟蹤+一站式學習(代碼+視頻+PPT)

    計算機視覺+深度學習+機器學習+opencv+目標檢測跟蹤+一站式學習(代碼+視頻+PPT)

    第1章:視覺項目資料介紹與學習指南 相關知識: 介紹計算機視覺、OpenCV庫,以及課程的整體結構。 學習概要: 了解課程的目標和學習路徑,為后續(xù)章節(jié)做好準備。 重要性: 提供學生對整個課程的整體認識,為學習提供框架和背景。 包括了 計算機視覺/opencv視頻 視頻對應

    2024年02月05日
    瀏覽(58)
  • 基于計算機視覺,深度學習、機器學習,OpenCV,圖像分割,目標檢測卷積神經(jīng)網(wǎng)絡計算機畢業(yè)設計選題題目大全選題指導

    隨著深度學習、機器學習和神經(jīng)網(wǎng)絡技術的快速發(fā)展,計算機視覺領域的應用變得越來越廣泛和有趣。本畢業(yè)設計旨在探索這一領域的前沿技術,將深度學習模型、神經(jīng)網(wǎng)絡架構、OpenCV圖像處理工具,以及卷積神經(jīng)網(wǎng)絡(CNN)的強大能力結合起來,以解決實際圖像處理問題。

    2024年02月08日
    瀏覽(100)
  • 深度學習在計算機視覺中的對象檢測技術

    計算機視覺是人工智能領域的一個重要分支,其主要研究如何讓計算機理解和處理圖像和視頻。對象檢測是計算機視覺中的一個重要任務,它旨在在圖像中識別和定位特定類別的物體。隨著深度學習技術的發(fā)展,對象檢測技術也逐漸被深度學習所取代,這種方法在性能和準確

    2024年02月19日
    瀏覽(18)
  • 【計算機視覺面經(jīng)四】基于深度學習的目標檢測算法面試必備(RCNN~YOLOv5)

    【計算機視覺面經(jīng)四】基于深度學習的目標檢測算法面試必備(RCNN~YOLOv5)

    目標檢測算法主要包括:【兩階段】目標檢測算法、【多階段】目標檢測算法、【單階段】目標檢測算法。 什么是兩階段目標檢測算法,與單階段目標檢測有什么區(qū)別? 兩階段目標檢測算法因需要進行兩階段的處理:1)候選區(qū)域的獲取,2)候選區(qū)域分類和回歸,也稱為基于

    2024年03月27日
    瀏覽(26)
  • 保姆級別!深度學習-計算機視覺-目標檢測方向學習路線,送給研0,研一正在迷茫的小伙伴們,學完發(fā)paper!

    保姆級別!深度學習-計算機視覺-目標檢測方向學習路線,送給研0,研一正在迷茫的小伙伴們,學完發(fā)paper!

    bilibili 學習路線解讀: 保姆級別!深度學習-計算機視覺-目標檢測方向學習路線,送給研0,研一正在迷茫的小伙伴們,學完發(fā)paper!_嗶哩嗶哩_bilibili 文章前半部分主要講解大家都能用得到的,深度學習,計算機視覺這個模塊的學習路線,適合所有的同學! 后半部分主要是講解

    2024年02月09日
    瀏覽(54)
  • 【計算機視覺 | 目標檢測】目標檢測中的評價指標 mAP 理解及計算(含示例)

    【計算機視覺 | 目標檢測】目標檢測中的評價指標 mAP 理解及計算(含示例)

    在目標檢測中,有幾個常用的評價指標用于衡量算法的性能。以下是其中幾個重要的評價指標: Precision(精確率):Precision 衡量了在所有被檢測為正樣本的樣本中,有多少是真正的正樣本。 Precision 的計算公式為:Precision = TP / (TP + FP),其中 TP 是真正的正樣本數(shù)量,F(xiàn)P 是將負

    2024年01月19日
    瀏覽(18)
  • RetinaNet:推動計算機視覺中的目標檢測

    RetinaNet:推動計算機視覺中的目標檢測

    介紹 在計算機視覺領域,目標檢測是一項基礎任務,使機器能夠識別和定位圖像或視頻幀中的對象。這種能力在各個領域都有深遠的影響,從自動駕駛車輛和機器人技術到醫(yī)療保健和監(jiān)控應用。RetinaNet,作為一種開創(chuàng)性的目標檢測框架,已經(jīng)成為解決在復雜場景中檢測各種大

    2024年01月22日
    瀏覽(32)
  • 【探索AI】三十一-計算機視覺(六)深度學習在計算機視覺中的應用

    深度學習在計算機視覺中的應用已經(jīng)取得了顯著的成果,并且正在逐步改變我們對圖像和視頻信息的處理和理解方式。下面將詳細講解深度學習在計算機視覺中的幾個關鍵應用。 首先,我們來看圖像分類。圖像分類是計算機視覺的基本任務之一,它涉及到將輸入的圖像自動歸

    2024年04月09日
    瀏覽(37)
  • 深度學習在計算機視覺中的應用

    深度學習在計算機視覺中的應用

    深度學習在計算機視覺中的應用 摘要: 本文介紹了深度學習在計算機視覺領域的應用,包括目標檢測、圖像分類、人臉識別等。通過分析深度學習在計算機視覺中的實際應用案例,闡述了深度學習在計算機視覺中的優(yōu)勢和未來發(fā)展趨勢。 一、引言 計算機視覺是一門研究如何

    2024年02月04日
    瀏覽(39)
  • 深度學習衛(wèi)星遙感圖像檢測與識別 -opencv python 目標檢測 計算機競賽

    深度學習衛(wèi)星遙感圖像檢測與識別 -opencv python 目標檢測 計算機競賽

    ?? 優(yōu)質競賽項目系列,今天要分享的是 ?? **深度學習衛(wèi)星遙感圖像檢測與識別 ** 該項目較為新穎,適合作為競賽課題方向,學長非常推薦! ??學長這里給一個題目綜合評分(每項滿分5分) 難度系數(shù):3分 工作量:3分 創(chuàng)新點:5分 ?? 更多資料, 項目分享: https://gitee.com/da

    2024年02月03日
    瀏覽(93)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包