一:引言
我們傳統(tǒng)的神經(jīng)網(wǎng)絡和卷積神經(jīng)網(wǎng)絡有什么區(qū)別?
下圖所示,左圖就是我們傳統(tǒng)的神經(jīng)網(wǎng)絡(NN)(想了解NN的小伙伴可以先劃到最后的參考文章部分),右圖就是卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network)(CNN),我們在這張圖中可以明顯地看出,左圖看上去像二維的,右圖好像是一個三維的圖,舉個例子,比如在傳統(tǒng)神經(jīng)網(wǎng)絡輸入的一張圖有784個像素點,所以輸入層就有784個神經(jīng)元,但在我們的CNN中輸入的就是原始的圖像28*28*1(是三維的),它是一個三維的矩陣。我們可以看到右圖中又定義三維名稱‘height*width*depth’簡稱‘h*w*d’,接下來我們就圍繞著卷積層和深度到底怎么變換展開。
?文章來源地址http://www.zghlxwxcb.cn/news/detail-409982.html
二:大體介紹CNN:
如下圖所示就是CNN的整體架構,和我們講述NN的文章相同,這次也是從整體架構入手,幫助大家了解CNN,總共有四個部分:輸入層 ,卷積層 ,池化層 ,全連接層 。
?
三:詳細介紹CNN:
(1):輸入層:
輸入層就是和上文的例子相同,如圖中的最左邊的圖片假設就是我們需要輸入的,假設是‘28*28*3’,分別對應‘h*w*d’,其中對于圖片輸入來說通常是以RGB三通道的形式輸入,所以d通常是3,如下圖中的第二張圖片就是后面三個通道圖片相疊加而來
?
(2):卷積層(核心):
卷積層是如何工作的呢?我們先給定一個簡單的例子,如下圖所示:
?
假設我們輸入的是5*5*1的圖像,中間的那個3*3*1是我們定義的一個卷積核(簡單來說可以看做一個矩陣形式運算器),通過原始輸入圖像和卷積核做運算可以得到綠色部分的結果,怎么樣的運算呢?實際很簡單就是我們看左圖中深色部分,處于中間的數(shù)字是圖像的像素,處于右下角的數(shù)字是我們卷積核的數(shù)字,只要對應相乘再相加就可以得到結果。例如圖中‘3*0+1*1+2*2+2*2+0*2+0*0+2*0+0*1+0*2=9’
那如果我們的d大于一的時候又是如何計算的?
如下動圖:
圖中最左邊的三個輸入矩陣就是我們的相當于輸入d=3時有三個通道圖,每個通道圖都有一個屬于自己通道的卷積核,我們可以看到輸出(output)的只有兩個特征圖意味著我們設置的輸出的d=2,有幾個輸出通道就有幾層卷積核(比如圖中就有FilterW0和FilterW1),這意味著我們的卷積核數(shù)量就是輸入d的個數(shù)乘以輸出d的個數(shù)(圖中就是2*3=6個),其中每一層通道圖的計算與上文中提到的一層計算相同,再把每一個通道輸出的輸出再加起來就是綠色的輸出數(shù)字啦!。
(3):池化層:
池化層部分就比較簡單了如下圖所示:
?如圖中就是一個max-pooling(最大池化)的一個操作,就是把選中的區(qū)域中的最大值給挑出來,比如粉紅色區(qū)域的‘1,1,5,6’四個數(shù)字最大值就是6,還有一種比較常見的是mean-pooling(平均池化)就是把區(qū)域內(nèi)的數(shù)字加起來做個平均值,比如藍色區(qū)域就是(1+0+3+4)/4=2。
(4):全連接層(FC)
全連接層的理解就是相當于在最后面加一層或多層傳統(tǒng)神經(jīng)網(wǎng)絡(NN)層,我們在連接全連接層前,需要把我們的CNN的三維矩陣進行展平成二維,比如說從池化層出來的是‘5*5*3’的圖像,在輸入到全連接層展平成1*75以滿足全連接層的輸入模式。
四:最后呈現(xiàn)
如下圖:
五:參考文章:
1:CNN筆記:通俗理解卷積神經(jīng)網(wǎng)絡_v_JULY_v的博客-CSDN博客_卷積神經(jīng)網(wǎng)絡通俗理解
2:CNN部分不愧是計算機博士唐宇迪居然半天教會了我大學4年沒學會的深度學習經(jīng)典算法解析入門到實戰(zhàn)課程,看不懂你打我?。?!_嗶哩嗶哩_bilibili
3:傳統(tǒng)神經(jīng)網(wǎng)絡:
神經(jīng)網(wǎng)絡整體架構及細節(jié)(詳細簡單)_小林學編程的博客-CSDN博客文章來源:http://www.zghlxwxcb.cn/news/detail-409982.html
?
到了這里,關于卷積神經(jīng)網(wǎng)絡(CNN)的整體框架及細節(jié)(詳細簡單)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!