AI學(xué)習(xí)目錄匯總
1、從全鏈接層到卷積
1.1 卷積
我們?cè)谇懊鎸W(xué)習(xí)的多層感知機(jī)中,已經(jīng)認(rèn)識(shí)了全鏈接層,缺點(diǎn)很明顯,在稍微大點(diǎn)的網(wǎng)絡(luò)模型中,參數(shù)成指數(shù)級(jí)別增長(zhǎng)。參數(shù)量很快就達(dá)到數(shù)十億,這樣的量級(jí)幾乎無(wú)法計(jì)算。為此科學(xué)家們想出一個(gè)減少參數(shù)的方法:卷積。
從全鏈接層到卷積的推論,使用如下兩個(gè)原則:
- 平移不變性(translation invariance):不管檢測(cè)對(duì)象出現(xiàn)在圖像中的哪個(gè)位置,神經(jīng)網(wǎng)絡(luò)的前面幾層應(yīng)該對(duì)相同的圖像區(qū)域具有相似的反應(yīng),即為“平移不變性”。
- 局部性(locality):神經(jīng)網(wǎng)絡(luò)的前面幾層應(yīng)該只探索輸入圖像中的局部區(qū)域,而不過(guò)度在意圖像中相隔較遠(yuǎn)區(qū)域的關(guān)系,這就是“局部性”原則。最終,可以聚合這些局部特征,以在整個(gè)圖像級(jí)別進(jìn)行預(yù)測(cè)。
(本人的理解)如果已經(jīng)了解過(guò)什么是卷積核,可以這樣理解上面的兩個(gè)原則:文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-643844.html
- 卷積核以一定步長(zhǎng)在圖像上滑過(guò),為什么要這么做?原理就是“平移不變性”
- 卷積核為什么設(shè)計(jì)成小尺寸(3x3、5x5等)?原理就是“局部性”
從全鏈接層到卷積的數(shù)學(xué)推理,建議多讀幾遍原書中的內(nèi)容,作者講解的邏輯很清晰,讀完豁然開朗。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-643844.html
到了這里,關(guān)于【AI】《動(dòng)手學(xué)-深度學(xué)習(xí)-PyTorch版》筆記(十七):卷積神經(jīng)網(wǎng)絡(luò)入門的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!