參考:
http://t.csdn.cn/8ApfD
‘http://t.csdn.cn/ZmEOJ
核心觀點(diǎn):?
- 前一層的通道數(shù)(特征圖數(shù)量),決定這一層過濾器的深度;
- 這一層過濾器的數(shù)量,決定這一層輸出的通道數(shù)(特征圖數(shù)量)
神經(jīng)網(wǎng)絡(luò)每一層輸出矩陣的形狀一般是4個(gè)維度[y1, y2, y3, y4]
- y1 通常是batch_size,就是每一圈丟幾張圖片進(jìn)去訓(xùn)練
- y2 y3 通常是圖片的長寬
- y4 就是圖片的通道數(shù)
目錄
一 過濾器與卷積核的區(qū)別
二 通道數(shù)與特征圖數(shù)
三 神經(jīng)網(wǎng)絡(luò)的輸出矩陣形狀變化
?
一 過濾器與卷積核的區(qū)別
? ? ? ? 首先我們需要理解過濾器與卷積核的區(qū)別.
????????卷積核是一個(gè)二維的概念 (2,2)就是一個(gè)2×2的卷積核。
? ? ? ? 過濾器是一個(gè)三維的概念? ?3×2×2 ,就是3個(gè)2×2的卷積核集和成一個(gè)三維的過濾器,卷積核的數(shù)量就是過濾器的深度。
二 通道數(shù)與特征圖數(shù)
? ? ? ? 上面說到,過濾器是幾個(gè)卷積核的集和,那么到底是幾個(gè)卷積核呢?
? ? ? ? 這一層過濾器的深度,由前一層的通道數(shù)(特征圖數(shù)量決定)。
? ? ? ? ?通道數(shù)=特征圖數(shù)量,不要誤認(rèn)為前一層圖像是3通道的然后這一層輸出的特征圖也是3通道的。
? ? ? ? 比如,第一層輸入為RGB3通道,則是3張?zhí)卣鲌D(每個(gè)通道的像素都組成一張?zhí)卣鲌D)。則第二層的過濾器的深度為3,每個(gè)卷積核與對(duì)應(yīng)特征圖卷積,得到一張新的特征圖。卷積過程如下:
圖片來源于:http://t.csdn.cn/8ApfD?,博主寫的很好,大家可以去看看
? ? ? ? 也就是1個(gè)過濾器由3個(gè)卷積核組成,輸出1個(gè)新的特征圖。
- 前一層的通道數(shù)(特征圖數(shù)量),決定這一層過濾器的深度;
- 這一層過濾器的數(shù)量,決定這一層輸出的通道數(shù)(特征圖數(shù)量)
三 神經(jīng)網(wǎng)絡(luò)的輸出矩陣形狀變化
????????以下面的7層卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行講解,輸入為mnist的手寫數(shù)據(jù)集,圖片為28×28的灰度圖片。也就是形狀為(28, 28, 1)
model = tf.keras.models.Sequential([
tf.keras.layers.Conv2D(64, (3, 3), activation = 'relu',
input_shape=(28, 28, 1)), # 輸出64張?zhí)卣鲌D
tf.keras.layers.MaxPooling2D(2, 2),
tf.keras.layers.Conv2D(64, (3, 3), activation='relu'), #卷積核為3維, 3×3×64,然后共有64個(gè)這樣的三維卷積核
tf.keras.layers.MaxPooling2D(2, 2), #在全連接網(wǎng)絡(luò)上增加了這樣四層
tf.keras.layers.Flatten(),
tf.keras.layers.Dense(128, activation='relu'),
tf.keras.layers.Dense(10, activation='softmax')
])
? ? ?
??????????第一層有64個(gè)3×3的過濾器,則輸出形狀變?yōu)榱?strong>[1, 26, 26, 64]。前面的1是batch_size。26是由于卷積沒有加padding,卷積之后少了兩行兩列。64是因?yàn)橛?4個(gè)過濾器,卷積出來之后有64個(gè)特征圖也就是64個(gè)通道。
?????????第二層是經(jīng)過 最大值池化,就是在每一個(gè)2×2的區(qū)域里,只保留值最大的一個(gè)像素值。所以輸出變?yōu)榱?strong>[1, 13, 13, 64]。
? ? ? ? 第三層是64個(gè)3×3的過濾器,注意,這里的過濾器是三維的,深度為64。也就是64個(gè)64×3×3的過濾器,卷積之后的通道數(shù)為64。輸出變?yōu)?strong>[1,11,11,64]
? ? ? ? 其余讀者自行推導(dǎo)。
????????文章來源地址http://www.zghlxwxcb.cn/news/detail-407524.html文章來源:http://www.zghlxwxcb.cn/news/detail-407524.html
????????
到了這里,關(guān)于卷積神經(jīng)網(wǎng)絡(luò)每一層輸出的形狀、通道數(shù)、特征圖數(shù)量以及過濾器數(shù)量的理解與計(jì)算。的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!