4.1 深L層神經(jīng)網(wǎng)絡(luò)
對于某些問題來說,深層神經(jīng)網(wǎng)絡(luò)相對于淺層神經(jīng)網(wǎng)絡(luò)解決該問題的效果會較好。所以問題就變成了神經(jīng)網(wǎng)絡(luò)層數(shù)的設(shè)置。
其中
n
[
i
]
n^{[i]}
n[i]表示第i層神經(jīng)節(jié)點(diǎn)的個數(shù),
w
[
l
]
w^{[l]}
w[l]代表計(jì)算第l層所采用的權(quán)重系數(shù),
b
[
l
]
b^{[l]}
b[l]代表計(jì)算第l層所用的偏移量,
g
[
i
]
g^[i]
g[i]表示第i層所配置的激活函數(shù),常見的激活函數(shù)有sigmoid,tanh、relu和leaky-relu等。
b
[
i
]
b^[i]
b[i]表示第i層配置的參數(shù)/偏移量文章來源:http://www.zghlxwxcb.cn/news/detail-812274.html
4.2 深層網(wǎng)絡(luò)中的正向傳播
為了統(tǒng)一格式,可以將輸入向量x改寫成
a
[
0
]
a^{[0]}
a[0]文章來源地址http://www.zghlxwxcb.cn/news/detail-812274.html
到了這里,關(guān)于深度學(xué)習(xí)|4.1 深L層神經(jīng)網(wǎng)絡(luò) 4.2 深層網(wǎng)絡(luò)的正向傳播的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!