?文章來源地址http://www.zghlxwxcb.cn/news/detail-612884.html
概要
?
在圖像處理領(lǐng)域,CNN(卷積神經(jīng)網(wǎng)絡(luò))處于絕對(duì)統(tǒng)治地位,但對(duì)于CNN具體是如何用神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的,能找到的介紹要么是一大堆數(shù)學(xué)公式,要么是大段晦澀的文字說明,讀起來很是辛苦,想寫好一片完整的而且有深度的文章出來非常難,所以本文適合入門的朋友對(duì)CNN的學(xué)習(xí)和了解。
?
CNN主要思路快速回顧
為了便于大家理解,這里簡單回顧一下CNN的主要思路:對(duì)于一張M *?N像素的圖,我們用一個(gè)大小為?S?*?S(如3 * 3)的特征提取器,掃描整個(gè)圖片,強(qiáng)化圖片的重要特征,忽略不重要的細(xì)節(jié),得到一個(gè)強(qiáng)化了特征的新圖:
?不斷遞歸上述過程,就可以逐漸從細(xì)節(jié)特征(如線條、紋理)中提取出高級(jí)特征(如器官、物種),最終完成各種圖像處理任務(wù)。
圖解CNN的神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)過程
假設(shè)我們有一張3 * 3的圖,圖中每個(gè)像素用一個(gè)字母表示:
?我們的特征提取器為一個(gè)2 * 2的矩陣,矩陣每個(gè)元素是一個(gè)希臘字母:
?用特征提取器處理后的圖片為:
?其詳細(xì)工作過程如下:
?上述工作過程可以表達(dá)為以下等式:
?注意上述等式中的bias參數(shù)b在4個(gè)等式中都是一樣的,可以把b理解為特征提取器的一部分,就像權(quán)重參數(shù)(α, β, γ, δ)是特征提取器的一部分一樣。
上述等式更緊湊的寫法為:
?上述寫法可以直接表示為一個(gè)神經(jīng)網(wǎng)絡(luò)(連接線對(duì)應(yīng)權(quán)重α, β, γ, δ):
?神經(jīng)元的激活過程就是權(quán)重矩陣和輸入矩陣的乘積:
?這里有兩個(gè)要注意的點(diǎn):
-
灰色格子的0,代表不可訓(xùn)練的參數(shù),它們?cè)谡麄€(gè)訓(xùn)練過程中始終為0
-
剩下可訓(xùn)練的參數(shù)中,很多參數(shù)取值是保持相同的,這叫做"共享權(quán)重"
權(quán)重矩陣的每一行,代表了在圖片上對(duì)特征過濾器的一次應(yīng)用,其中的0表示這次應(yīng)用不會(huì)覆蓋的像素。
假設(shè)我們把取值為0的權(quán)重也補(bǔ)充到上面的神經(jīng)網(wǎng)絡(luò)圖中(用灰色的線表示0權(quán)重),就可以得到一個(gè)經(jīng)典的、全連接的神經(jīng)網(wǎng)絡(luò)圖:
?
?去掉顏色和字母,就和熟悉的神經(jīng)網(wǎng)絡(luò)示意圖一模一樣了:
?上面,我們用一個(gè)2 * 2的特征提取器把一個(gè)3 * 3的圖變成了一個(gè)2 * 2的圖,通過zero-padding和一個(gè)3 * 3的特征提取器,我們就可以保持圖片大小不變:
?其工作過程如下:
?而如果不應(yīng)用zero-padding,則我們只能得到一個(gè)1 * 1的結(jié)果圖:
?
以上就是CNN落地實(shí)現(xiàn)為神經(jīng)網(wǎng)絡(luò)的過程,歡迎大家閱讀,感謝??。文章來源:http://www.zghlxwxcb.cn/news/detail-612884.html
?
到了這里,關(guān)于CNN(卷積神經(jīng)網(wǎng)絡(luò))的實(shí)現(xiàn)過程詳解的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!