C1-3.2 關(guān)于‘神經(jīng)網(wǎng)絡(luò)’
【注釋】
彩色圖像(RGB)由三原色構(gòu)成,二維圖像在任意一個點像素為立體三層結(jié)構(gòu),分別是紅色、綠色、藍色值,該值的范圍在0∽255之間
1、全連接神經(jīng)網(wǎng)絡(luò)——整體架構(gòu)
【注釋】:
? 這張圖懂了的話,神經(jīng)網(wǎng)絡(luò)就懂了80%。
1、層次結(jié)構(gòu)
分為:
- 輸入層
- 隱藏層
- 輸出層
ps:要注意的是,中間的隱藏層可以由多層組成。
展示一下過程吧;
? 輸入層輸入數(shù)據(jù) (輸入層數(shù)據(jù)* W1)> hidden layer1 (hidden layer1層數(shù)據(jù) * W2)>hidden layer2 (hidden layer2 層數(shù)據(jù) * W3 )>輸出層
PS:W1 W2 W3 可以是一個數(shù),也可以是n * m的矩陣
1.1 、層次結(jié)構(gòu)—神經(jīng)元 (輸入層)
就是 輸入層(input layer)小紅框中那幾個小湯圓(A、B、C),代表三個輸入的特征的個數(shù)
? 這三個大湯圓:A,B,C 分別代表三個特征值(比如:身高、體重、年齡)
? 我們可以看到圖中每個層次中都有許多圓圓的球似的東西,這個東西就是在神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元,每一種層次中的神經(jīng)元中的含量不太一樣。
? 在輸入層中的每一個神經(jīng)元里面是你輸入原始數(shù)據(jù)(一般稱為X)的不同特征,比如x為一張圖片,這張圖片的像素是32 * 32 * 3 = 3072,其中的每一個像素都是它的特征,所以有3072個特征對應(yīng)的輸入層神經(jīng)元個數(shù)就是3072個,這些特征以矩陣的形式進行輸入的。我們舉個例子比如我們的輸入矩陣為‘1*3072’(第一維的數(shù)字表示一個batch(batch指的是每次訓練輸入多少個數(shù)據(jù))中有多少個輸入;第二維數(shù)字中的就是每一個輸入有多少特征。)
1.2、層次結(jié)構(gòu)—隱藏層
-
**隱藏層的含義來源:**不像輸入層(在監(jiān)督學習的訓練集中,我們知道輸入的數(shù)據(jù)X-> ;w -> ;b)、輸出層(在監(jiān)督學習的訓練集中,知道輸出結(jié)果)。隱藏層:在訓練集中我們是看不到他的值的。
-
在 “隱藏層” 和 “輸出層”中,可以把每一個神經(jīng)元當做一個激活函數(shù),激活函數(shù)可以是Sigmoid ;RueL等等…
-
以 一個神經(jīng)元結(jié)構(gòu)為例:
- 其中L是最后一步計算損失函數(shù),然后進行梯度下降進行后反饋,不斷優(yōu)化w 和b 的值,得到最小的損失函數(shù)值。
-
多層隱藏層的情況:
【注釋】:其中a[0]表示輸入層輸入的值(可以是向量)
- 第一層隱藏層相應(yīng)參數(shù)和結(jié)果:a[1] ;w[1]; b[1]
- 第一層神經(jīng)元各個結(jié)果:a[1]1,a[1]2,a[1]3
- 第二層隱藏層相應(yīng)參數(shù)和結(jié)果:a[2] w[2] b[2]
用這種可以明確表示出這些值來自那一層。。。
- 第一層隱藏層相應(yīng)參數(shù)和結(jié)果:a[1] ;w[1]; b[1]
1.3、層次結(jié)構(gòu)—輸出層
輸出層 可以是一個神經(jīng)元/多個神經(jīng)元
?
以一個神經(jīng)元為例:文章來源:http://www.zghlxwxcb.cn/news/detail-799466.html
- 第一步:接受前一層隱藏層的輸出(這里是a[1]),作為輸出層的輸入
- 第二步:放入輸出層的神經(jīng)元進行計算。
文章來源地址http://www.zghlxwxcb.cn/news/detail-799466.html
到了這里,關(guān)于C1-3.2 關(guān)于‘神經(jīng)網(wǎng)絡(luò)’的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!