国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化

這篇具有很好參考價(jià)值的文章主要介紹了卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

一、圖像特征

1. 圖像低層特征
  • 圖像低層特征指的是:邊緣、顏色和紋理等特征。
  • 低層特征的分辨率較高,包含較多的位置、細(xì)節(jié)信息,但其包含的語(yǔ)義信息較少,噪聲較多。
  • 原始圖像和淺層卷積網(wǎng)絡(luò)輸出的特征圖屬于低層特征,從低層特征圖中可以看清輪廓、邊緣等信息。
2. 圖像高層特征
  • 圖像的高層語(yǔ)義特征是指人所能理解的東西,比如沙發(fā)、狗、瓶子等。
  • 高層特征包含較多的語(yǔ)義信息,但其分辨率較低,對(duì)位置和細(xì)節(jié)的感知能力也較差。
  • 經(jīng)過(guò)深層的卷積網(wǎng)絡(luò),可以有效歸納出語(yǔ)義信息,就是類似某個(gè)區(qū)域就是什么東西,并不需要顯示具體的紋理信息。
3. 示例
  • 下面以YOLOv5網(wǎng)絡(luò)為例,可視化展示了原始圖像經(jīng)過(guò)每一層網(wǎng)絡(luò)后的輸出特征圖(共23層,逐層可視化),YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)如下:卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
  • 原始輸入圖像
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Conv輸出的的特征圖(第0層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Conv輸出的特征圖(第1層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - C3輸出的特征圖(第2層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Conv輸出的特征圖(第3層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - C3后的特征圖(第4層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Conv輸出的特征圖(第5層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - C3輸出的特征圖(第6層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Conv輸出的特征圖(第7層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - C3輸出的特征圖(第8層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - SPPF輸出的特征圖(第9層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Conv輸出的特征圖(第10層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Upsample輸出的特征圖(第11層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Concat輸出的特征圖(第12層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - C3輸出的特征圖(第13層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Conv輸出的特征圖(第14層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Upsample輸出的特征圖(第15層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Concat輸出的特征圖(第16層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - C3輸出的特征圖(第17層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Conv輸出的特征圖(第18層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Concat輸出的特征圖(第19層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - C3輸出的特征圖(第20層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Conv輸出的特征圖(第21層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - Concat輸出的特征圖(第22層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化
    - C3輸出的特征圖(第23層的輸出)
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化

二、特征融合

1. 多尺度特征融合
  • 低層網(wǎng)絡(luò)的感受野比較小,幾何信息表征能力強(qiáng),雖然分辨率高,但是語(yǔ)義信息表征能力弱。
  • 高層網(wǎng)絡(luò)的感受野比較大,可以理解為CNN從更加全局的角度對(duì)圖像做特征提取,因此產(chǎn)生更加高層次的語(yǔ)義信息,語(yǔ)義信息表征能力強(qiáng),但是特征圖的分辨率低,幾何信息的表征能力弱(空間幾何特征細(xì)節(jié)缺乏)。
  • 低層網(wǎng)絡(luò)的幾何信息高層網(wǎng)絡(luò)的語(yǔ)義信息相融合,是提高檢測(cè)和分割性能的重要手段。
2. FPN
  • FPN(特征圖金字塔網(wǎng)絡(luò)),主要解決的是物體檢測(cè)中的多尺度問(wèn)題,通過(guò)簡(jiǎn)單的網(wǎng)絡(luò)連接改變,在基本不增加原有模型計(jì)算量的情況下,大幅度提升了小物體檢測(cè)的性能。

  • 算法大致結(jié)構(gòu)如下:一個(gè)自底向上的線路,一個(gè)自頂向下的線路,橫向連接。
    卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化

  • 自底向上:
    自底向上的過(guò)程就是神經(jīng)網(wǎng)絡(luò)的前向傳播過(guò)程,特征圖經(jīng)過(guò)卷積核計(jì)算,尺寸會(huì)越變?cè)叫 ?/p>

  • 自上而下:
    自上而下的過(guò)程是把更抽象、語(yǔ)義更強(qiáng)的高層特征圖進(jìn)行上采樣。

  • 橫向連接:
    橫向連接則是將上采樣的結(jié)果和自底向上生成的相同大小的特征圖進(jìn)行融合,橫向連接的兩層特征在空間尺寸相同,這樣做可以利用低層定位細(xì)節(jié)信息。

參考文章

關(guān)于encoder-decoder網(wǎng)絡(luò) - 特征融合

深度特征融合—高低層(多尺度)特征融合

對(duì)圖像中語(yǔ)義信息、高層和底層特征的理解

CNN中的底層、高層特征、上下文信息、多尺度

多尺度特征融合

FPN(特征金字塔)結(jié)構(gòu)筆記文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-450734.html

到了這里,關(guān)于卷積神經(jīng)網(wǎng)絡(luò)中的圖像特征——以YOLOv5為例進(jìn)行可視化的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【YOLOv8改進(jìn)】MCA:用于圖像識(shí)別的深度卷積神經(jīng)網(wǎng)絡(luò)中的多維協(xié)作注意力 (論文筆記+引入代碼)

    【YOLOv8改進(jìn)】MCA:用于圖像識(shí)別的深度卷積神經(jīng)網(wǎng)絡(luò)中的多維協(xié)作注意力 (論文筆記+引入代碼)

    先前的大量研究表明,注意力機(jī)制在提高深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)的性能方面具有巨大潛力。然而,大多數(shù)現(xiàn)有方法要么忽略通道和空間維度的建模注意力,要么引入更高的模型復(fù)雜性和更重的計(jì)算負(fù)擔(dān)。為了緩解這種困境,在本文中,我們提出了一種輕量級(jí)且高效的多維協(xié)

    2024年03月18日
    瀏覽(78)
  • YOLOv5基礎(chǔ)知識(shí)點(diǎn)——卷積神經(jīng)網(wǎng)絡(luò)

    YOLOv5基礎(chǔ)知識(shí)點(diǎn)——卷積神經(jīng)網(wǎng)絡(luò)

    一文看懂卷積神經(jīng)網(wǎng)絡(luò)-CNN(基本原理+獨(dú)特價(jià)值+實(shí)際應(yīng)用)- 產(chǎn)品經(jīng)理的人工智能學(xué)習(xí)庫(kù) (easyai.tech) 人類的視覺(jué)原理如下 :從原始信號(hào)攝入開始(瞳孔攝入像素 Pixels),接著做初步處理(大腦皮層某些細(xì)胞發(fā)現(xiàn)邊緣和方向),然后抽象(大腦判定,眼前的物體的形狀,是圓形

    2024年02月05日
    瀏覽(50)
  • 卷積神經(jīng)網(wǎng)絡(luò) —— 圖像卷積

    卷積神經(jīng)網(wǎng)絡(luò) —— 圖像卷積

    卷積神經(jīng)網(wǎng)絡(luò)是最具代表性的深度學(xué)習(xí)算法之一,目前已經(jīng)被大范圍的應(yīng)用與計(jì)算機(jī)視覺(jué)等領(lǐng)域,并且取得了眾多突破性的進(jìn)展,在學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)之前,我們需要學(xué)習(xí)圖像卷積運(yùn)算。 圖像卷積運(yùn)算是一種圖像處理算法。通過(guò)它可以實(shí)現(xiàn)很多不同的效果。例如,模糊圖像中

    2024年02月07日
    瀏覽(14)
  • SENet: 強(qiáng)化深度卷積神經(jīng)網(wǎng)絡(luò)的自適應(yīng)特征學(xué)習(xí)

    SENet: 強(qiáng)化深度卷積神經(jīng)網(wǎng)絡(luò)的自適應(yīng)特征學(xué)習(xí)

    SENet(Squeeze-and-Excitation Network)是一種革命性的深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),旨在提高模型對(duì)圖像特征的建模能力。它引入了自適應(yīng)特征重新校準(zhǔn)機(jī)制,通過(guò)學(xué)習(xí)性地調(diào)整通道間的重要性,提高了模型的性能,廣泛用于圖像分類、目標(biāo)檢測(cè)、圖像分割等計(jì)算機(jī)視覺(jué)任務(wù)。 在深度學(xué)

    2024年02月08日
    瀏覽(20)
  • 【使用 k 折疊交叉驗(yàn)證的卷積神經(jīng)網(wǎng)絡(luò)(CNN)】基于卷積神經(jīng)網(wǎng)絡(luò)的無(wú)特征EMG模式識(shí)別研究(Matlab代碼實(shí)現(xiàn))

    【使用 k 折疊交叉驗(yàn)證的卷積神經(jīng)網(wǎng)絡(luò)(CNN)】基于卷積神經(jīng)網(wǎng)絡(luò)的無(wú)特征EMG模式識(shí)別研究(Matlab代碼實(shí)現(xiàn))

    ???????? 歡迎來(lái)到本博客 ???????? ??博主優(yōu)勢(shì): ?????? 博客內(nèi)容盡量做到思維縝密,邏輯清晰,為了方便讀者。 ?? 座右銘: 行百里者,半于九十。 ?????? 本文目錄如下: ?????? 目錄 ??1 概述 ??2 運(yùn)行結(jié)果 ??3?參考文獻(xiàn) ??4 Matlab代碼實(shí)現(xiàn) 文獻(xiàn)來(lái)源

    2024年02月11日
    瀏覽(28)
  • 神經(jīng)網(wǎng)絡(luò)卷積反卷積及池化計(jì)算公式、特征圖通道數(shù)(維度)變化實(shí)例

    神經(jīng)網(wǎng)絡(luò)卷積反卷積及池化計(jì)算公式、特征圖通道數(shù)(維度)變化實(shí)例

    卷積神經(jīng)網(wǎng)絡(luò),要特別注意輸入圖像的尺寸,如果想套用某個(gè)網(wǎng)絡(luò)結(jié)構(gòu),需要先通過(guò)網(wǎng)絡(luò)結(jié)構(gòu)計(jì)算出輸入圖像尺寸,將自己的圖像調(diào)整為所需要的尺寸;也可以根據(jù)自己的圖像尺寸適當(dāng)調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)。以下是具體操作方法。 目錄 一,要想計(jì)算圖像尺寸,先要了解基礎(chǔ)卷積等

    2024年02月03日
    瀏覽(29)
  • 卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)圖像識(shí)別

    卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)圖像識(shí)別

    目的: 實(shí)現(xiàn)昆蟲的圖像分類,同時(shí)該模型也可以用于其他圖像的分類識(shí)別,只需傳入相應(yīng)的訓(xùn)練集進(jìn)行訓(xùn)練,保存為另一個(gè)模型即可,進(jìn)行調(diào)用使用。 配置環(huán)境: pycharm(python3.7),導(dǎo)入pytotch庫(kù) 知識(shí)預(yù)備: 需要了解卷積神經(jīng)網(wǎng)絡(luò)的基本原理與結(jié)構(gòu),熟悉pytorch的使用,csdn有

    2023年04月09日
    瀏覽(16)
  • 圖像分類卷積神經(jīng)網(wǎng)絡(luò)模型綜述

    圖像分類卷積神經(jīng)網(wǎng)絡(luò)模型綜述

    圖像分類:核心任務(wù)是從給定的分類集合中給圖像分配一個(gè)標(biāo)簽任務(wù)。 輸入:圖片 輸出:類別。 MNIST數(shù)據(jù)集是用來(lái)識(shí)別手寫數(shù)字,由0~9共10類別組成。 從MNIST數(shù)據(jù)集的SD-1和SD-3構(gòu)建的,其中包含手寫數(shù)字的二進(jìn)制圖像: MNIST數(shù)據(jù)集將SD-3作為訓(xùn)練集,將SD-1作為測(cè)試集,但SD-3比

    2023年04月14日
    瀏覽(22)
  • 卷積神經(jīng)網(wǎng)絡(luò) —— 圖像識(shí)別與深度學(xué)習(xí)

    卷積神經(jīng)網(wǎng)絡(luò) —— 圖像識(shí)別與深度學(xué)習(xí)

    視頻教程學(xué)習(xí)鏈接: https://www.icourse163.org/learn/XUST-1206363802?tid=1467124640#/learn/content?type=detailid=1248319353cid=1275090253 原始數(shù)據(jù)的形式是多種多樣的,除了數(shù)字之外,還可能是文字、圖像、視頻、音頻等,下面,就以圖像識(shí)別為例,來(lái)了解深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域中的應(yīng)用。 圖像

    2024年02月05日
    瀏覽(19)
  • 基于卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類

    基于卷積神經(jīng)網(wǎng)絡(luò)的高光譜圖像分類

    近年來(lái)深度學(xué)習(xí)的技術(shù)在計(jì)算機(jī)視覺(jué)領(lǐng)域中大放異彩,使得對(duì)多光譜數(shù)據(jù)分類的研究迅速發(fā)展,結(jié)合2D-CNN,3D-CNN,注意力機(jī)制,PCA降維等方法均可使得對(duì)多光譜圖像的分類精度得以提升。目前CNN網(wǎng)絡(luò)大量用于傳統(tǒng)的CV領(lǐng)域,而對(duì)于高光譜圖像的分類仍比較缺乏,本文章基于C

    2024年02月10日
    瀏覽(30)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包