国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

卷積神經(jīng)網(wǎng)絡(CNN)的整體框架及細節(jié)(詳細簡單)

這篇具有很好參考價值的文章主要介紹了卷積神經(jīng)網(wǎng)絡(CNN)的整體框架及細節(jié)(詳細簡單)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

一:引言

我們傳統(tǒng)的神經(jīng)網(wǎng)絡和卷積神經(jīng)網(wǎng)絡有什么區(qū)別?
下圖所示,左圖就是我們傳統(tǒng)的神經(jīng)網(wǎng)絡(NN)(想了解NN的小伙伴可以先劃到最后的參考文章部分),右圖就是卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network)(CNN),我們在這張圖中可以明顯地看出,左圖看上去像二維的,右圖好像是一個三維的圖,舉個例子,比如在傳統(tǒng)神經(jīng)網(wǎng)絡輸入的一張圖有784個像素點,所以輸入層就有784個神經(jīng)元,但在我們的CNN中輸入的就是原始的圖像28*28*1(是三維的),它是一個三維的矩陣。我們可以看到右圖中又定義三維名稱‘height*width*depth’簡稱‘h*w*d’,接下來我們就圍繞著卷積層和深度到底怎么變換展開。

卷積神經(jīng)網(wǎng)絡(CNN)的整體框架及細節(jié)(詳細簡單)

?文章來源地址http://www.zghlxwxcb.cn/news/detail-409982.html

二:大體介紹CNN:

如下圖所示就是CNN的整體架構,和我們講述NN的文章相同,這次也是從整體架構入手,幫助大家了解CNN,總共有四個部分:輸入層 ,卷積層 ,池化層 ,全連接層 。

卷積神經(jīng)網(wǎng)絡(CNN)的整體框架及細節(jié)(詳細簡單)

?

三:詳細介紹CNN:

(1):輸入層:

輸入層就是和上文的例子相同,如圖中的最左邊的圖片假設就是我們需要輸入的,假設是‘28*28*3’,分別對應‘h*w*d’,其中對于圖片輸入來說通常是以RGB三通道的形式輸入,所以d通常是3,如下圖中的第二張圖片就是后面三個通道圖片相疊加而來

卷積神經(jīng)網(wǎng)絡(CNN)的整體框架及細節(jié)(詳細簡單)

?

(2):卷積層(核心):

卷積層是如何工作的呢?我們先給定一個簡單的例子,如下圖所示:

卷積神經(jīng)網(wǎng)絡(CNN)的整體框架及細節(jié)(詳細簡單)

?

假設我們輸入的是5*5*1的圖像,中間的那個3*3*1是我們定義的一個卷積核(簡單來說可以看做一個矩陣形式運算器),通過原始輸入圖像和卷積核做運算可以得到綠色部分的結果,怎么樣的運算呢?實際很簡單就是我們看左圖中深色部分,處于中間的數(shù)字是圖像的像素,處于右下角的數(shù)字是我們卷積核的數(shù)字,只要對應相乘再相加就可以得到結果。例如圖中‘3*0+1*1+2*2+2*2+0*2+0*0+2*0+0*1+0*2=9’

那如果我們的d大于一的時候又是如何計算的?

如下動圖:

卷積神經(jīng)網(wǎng)絡(CNN)的整體框架及細節(jié)(詳細簡單)

圖中最左邊的三個輸入矩陣就是我們的相當于輸入d=3時有三個通道圖,每個通道圖都有一個屬于自己通道的卷積核,我們可以看到輸出(output)的只有兩個特征圖意味著我們設置的輸出的d=2,有幾個輸出通道就有幾層卷積核(比如圖中就有FilterW0和FilterW1),這意味著我們的卷積核數(shù)量就是輸入d的個數(shù)乘以輸出d的個數(shù)(圖中就是2*3=6個),其中每一層通道圖的計算與上文中提到的一層計算相同,再把每一個通道輸出的輸出再加起來就是綠色的輸出數(shù)字啦!。

(3):池化層:

池化層部分就比較簡單了如下圖所示:

卷積神經(jīng)網(wǎng)絡(CNN)的整體框架及細節(jié)(詳細簡單)

?如圖中就是一個max-pooling(最大池化)的一個操作,就是把選中的區(qū)域中的最大值給挑出來,比如粉紅色區(qū)域的‘1,1,5,6’四個數(shù)字最大值就是6,還有一種比較常見的是mean-pooling(平均池化)就是把區(qū)域內(nèi)的數(shù)字加起來做個平均值,比如藍色區(qū)域就是(1+0+3+4)/4=2。

(4):全連接層(FC)

全連接層的理解就是相當于在最后面加一層或多層傳統(tǒng)神經(jīng)網(wǎng)絡(NN)層,我們在連接全連接層前,需要把我們的CNN的三維矩陣進行展平成二維,比如說從池化層出來的是‘5*5*3’的圖像,在輸入到全連接層展平成1*75以滿足全連接層的輸入模式。

四:最后呈現(xiàn)

如下圖:

卷積神經(jīng)網(wǎng)絡(CNN)的整體框架及細節(jié)(詳細簡單)

五:參考文章:

1:CNN筆記:通俗理解卷積神經(jīng)網(wǎng)絡_v_JULY_v的博客-CSDN博客_卷積神經(jīng)網(wǎng)絡通俗理解

2:CNN部分不愧是計算機博士唐宇迪居然半天教會了我大學4年沒學會的深度學習經(jīng)典算法解析入門到實戰(zhàn)課程,看不懂你打我?。?!_嗶哩嗶哩_bilibili

3:傳統(tǒng)神經(jīng)網(wǎng)絡:

神經(jīng)網(wǎng)絡整體架構及細節(jié)(詳細簡單)_小林學編程的博客-CSDN博客

?

到了這里,關于卷積神經(jīng)網(wǎng)絡(CNN)的整體框架及細節(jié)(詳細簡單)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 關于CNN卷積神經(jīng)網(wǎng)絡

    關于CNN卷積神經(jīng)網(wǎng)絡

    CNN代表卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network) 它是一種深度學習算法,特別適用于處理圖像和視頻數(shù)據(jù)。CNN由多個 卷積層、池化層和全連接層 組成,通過學習圖像或視頻數(shù)據(jù)的特征來進行 分類、識別或檢測任務 。與傳統(tǒng)的全連接神經(jīng)網(wǎng)絡相比,CNN的 參數(shù)數(shù)量較少 ,能夠

    2023年04月09日
    瀏覽(18)
  • 【人工智能】— 深度神經(jīng)網(wǎng)絡、卷積神經(jīng)網(wǎng)絡(CNN)、多卷積核、全連接、池化

    【人工智能】— 深度神經(jīng)網(wǎng)絡、卷積神經(jīng)網(wǎng)絡(CNN)、多卷積核、全連接、池化

    Pre-training + Fine-tuning Pre-training(預訓練) : 監(jiān)督逐層訓練是多隱層網(wǎng)絡訓練的有效手段, 每次訓練一層隱層結點, 訓練時將上一層隱層結點的輸出作為輸入, 而本層隱結點的輸出作為下一層隱結點的輸入, 這稱為”預訓練”. Fine-tuning(微調(diào)) : 在預訓練全部完成后, 再對整個網(wǎng)絡進行

    2024年02月10日
    瀏覽(48)
  • 十、CNN卷積神經(jīng)網(wǎng)絡實戰(zhàn)

    十、CNN卷積神經(jīng)網(wǎng)絡實戰(zhàn)

    輸入樣本通道數(shù)4、期待輸出樣本通道數(shù)2、卷積核大小3×3 具體卷積層的構建可參考博文:八、卷積層 設定卷積層 torch.nn.Conv2d(in_channels=in_channel,out_channels=out_channel,kernel_size=kernel_size,padding=1,stride=1) 必要參數(shù):輸入樣本通道數(shù) in_channels 、輸出樣本通道數(shù) out_channels 、卷積核大小

    2023年04月09日
    瀏覽(41)
  • 深度學習——CNN卷積神經(jīng)網(wǎng)絡

    深度學習——CNN卷積神經(jīng)網(wǎng)絡

    卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)是一種深度學習中常用于處理具有網(wǎng)格結構數(shù)據(jù)的神經(jīng)網(wǎng)絡模型。它在計算機視覺領域廣泛應用于圖像分類、目標檢測、圖像生成等任務。 CNN 的核心思想是通過利用局部感知和參數(shù)共享來捕捉輸入數(shù)據(jù)的空間結構信息。相比于傳統(tǒng)

    2024年02月15日
    瀏覽(27)
  • 深度學習|CNN卷積神經(jīng)網(wǎng)絡

    深度學習|CNN卷積神經(jīng)網(wǎng)絡

    在CNN沒有出現(xiàn)前,圖像對人工智能來說非常難處理。 主要原因: 圖像要處理的數(shù)據(jù)量太大了。圖像由像素組成,每個像素又由不同顏色組成,一張1000×1000彩色RGB圖像需要的參數(shù)是1000×1000×3,需要三百萬參數(shù)左右,普通神經(jīng)網(wǎng)絡會全用全連接方法來學習整幅圖像上的特征,處

    2024年02月11日
    瀏覽(33)
  • 深度學習03-卷積神經(jīng)網(wǎng)絡(CNN)

    深度學習03-卷積神經(jīng)網(wǎng)絡(CNN)

    CNN,即卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network),是一種常用于圖像和視頻處理的深度學習模型。與傳統(tǒng)神經(jīng)網(wǎng)絡相比,CNN 有著更好的處理圖像和序列數(shù)據(jù)的能力,因為它能夠自動學習圖像中的特征,并提取出最有用的信息。 CNN 的一個核心特點是卷積操作,它可以在圖像上進

    2024年02月05日
    瀏覽(25)
  • CNN卷積神經(jīng)網(wǎng)絡基礎知識

    CNN卷積神經(jīng)網(wǎng)絡基礎知識

    1.1 卷積核大小的選擇 1. 選擇奇數(shù)卷積核 ①. 保護位置信息,奇數(shù)卷積核的中心點位置在中心,有利于定位任務。 ②. padding時左右對稱。 2. 在感受野相同的情況下優(yōu)先選擇較小的卷積核以減少計算量 ①. 兩個3x3卷積核的感受野與一個5x5卷積核的感受野相同 ②. 兩個3x3卷積核的

    2024年02月04日
    瀏覽(50)
  • 卷積神經(jīng)網(wǎng)絡CNN的經(jīng)典模型

    卷積神經(jīng)網(wǎng)絡CNN的經(jīng)典模型

    ILSVRC是一項基于 ImageNet 數(shù)據(jù)庫的國際大規(guī)模視覺識別挑戰(zhàn)賽(ImageNet Large Scale Visual Recognition Challenge,ILSVRC) (1)1958年,Rosenblatt發(fā)明了感知機。用于對輸入的多維數(shù)據(jù)進行二分類且能夠使用梯度下降法自動更新權值。 缺點:只能處理線性分類問題。 (2)1986年,Geoffrey Hi

    2024年02月07日
    瀏覽(23)
  • 深度學習之卷積神經(jīng)網(wǎng)絡(CNN)

    深度學習之卷積神經(jīng)網(wǎng)絡(CNN)

    ? ? ? 大家好,我是帶我去滑雪! ? ? ? 卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)是一種基于深度學習的前饋神經(jīng)網(wǎng)絡,主要用于 圖像 和 視頻識別 、 分類 、 分割 和 標注 等計算機視覺任務。它主要由 卷積層 、 池化層 、 全連接層 和 激活函數(shù)層 等組成。其中,卷積

    2024年02月05日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包