有時(shí)候會(huì)搞混這兩個(gè)概念。什么是前向傳播?不是只有后向傳播嗎?后向傳播好像是用來(lái)更新模型參數(shù)的,前向傳播是什么東西?
帶著疑問(wèn)再次梳理一遍:
前向傳播
前向傳播是神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)測(cè)的過(guò)程。在這個(gè)過(guò)程中,輸入數(shù)據(jù)沿著神經(jīng)網(wǎng)絡(luò)從輸入層經(jīng)過(guò)隱藏層(如果有的話)最終到輸出層流動(dòng)。在每一層,數(shù)據(jù)會(huì)與層內(nèi)的權(quán)重(parameters)進(jìn)行計(jì)算(如加權(quán)和),并通過(guò)激活函數(shù)(activation function)進(jìn)行非線性轉(zhuǎn)換,生成該層的輸出。這個(gè)輸出隨后成為下一層的輸入,直到最后生成最終的預(yù)測(cè)結(jié)果。前向傳播的目的是根據(jù)當(dāng)前的模型參數(shù)(權(quán)重和偏置)對(duì)輸入數(shù)據(jù)進(jìn)行預(yù)測(cè)。
后向傳播
后向傳播是訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí)用于計(jì)算損失函數(shù)(loss function)關(guān)于模型參數(shù)的梯度(gradient)的過(guò)程。這個(gè)過(guò)程始于最終輸出層的損失函數(shù),此函數(shù)衡量了模型預(yù)測(cè)和實(shí)際標(biāo)簽之間的差異。在后向傳播中,這個(gè)損失會(huì)被用來(lái)計(jì)算對(duì)每個(gè)參數(shù)的梯度,表示損失函數(shù)如何隨這些參數(shù)的變化而變化。這通過(guò)鏈?zhǔn)椒▌t(chain rule)實(shí)現(xiàn),從輸出層開(kāi)始逐層向后計(jì)算梯度,直至輸入層。計(jì)算得到的梯度隨后用于更新模型的參數(shù)(如通過(guò)梯度下降法),目的是減少損失,從而改善模型的預(yù)測(cè)性能。
關(guān)系
前向傳播提供了模型對(duì)當(dāng)前輸入的預(yù)測(cè),這個(gè)預(yù)測(cè)隨后用于計(jì)算損失,損失反映了模型當(dāng)前性能的好壞。
后向傳播利用這個(gè)損失,通過(guò)計(jì)算損失相對(duì)于每個(gè)參數(shù)的梯度,來(lái)指導(dǎo)模型參數(shù)的更新,以減少未來(lái)的預(yù)測(cè)誤差。
前向傳播是數(shù)據(jù)輸入到網(wǎng)絡(luò)模型得到預(yù)測(cè)結(jié)果的過(guò)程,后向傳播是計(jì)算loss function計(jì)算模型參數(shù)梯度的過(guò)程。文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-829919.html
引申概念:梯度。
什么是梯度?我們知道模型是根據(jù)目標(biāo)函數(shù)的梯度反方向更新參數(shù)的,那么這個(gè)重要的梯度是如何計(jì)算和得到的?梯度的計(jì)算通常依賴于鏈?zhǔn)椒▌t,它是微積分中的一個(gè)基本原則,用于計(jì)算復(fù)合函數(shù)的導(dǎo)數(shù)。在深度學(xué)習(xí)中,模型的輸出和損失可以視為輸入數(shù)據(jù)和模型參數(shù)的復(fù)合函數(shù),鏈?zhǔn)椒▌t允許我們分步驟計(jì)算損失相對(duì)于每個(gè)參數(shù)的偏導(dǎo)數(shù)。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-829919.html
到了這里,關(guān)于神經(jīng)網(wǎng)絡(luò)中的前向傳播(Forward Propagation)和后向傳播(Backward Propagation)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!