概述
神經網絡最主要的作用是作為提取特征的工具,最終的分類并不是作為主要核心。
人工神經網絡也稱為多層感知機,相當于將輸入數據通過前面多個全連接層網絡將原輸入特征進行了一個非線性變換,將變換后的特征拿到最后一層的分類器去分類。
神經網絡是由多個神經元組成的拓撲結構,由多個層排列組成,每一層又堆疊了多個神經元。通常包括輸入層,N個隱藏層,和輸出層組成。
輸出層:分類任務中如果是二分類任務輸出層只需要1個神經元,如果是K個分類問題,輸出層要有K個神經元。對輸出層的每個神經元代入分類函數就可以得到每個分類的概率大小,取最大概率的作為分類結果。對于多分類問題的分類器模型常采用Softmax回歸模型,即多分類問題的Logistic回歸模型。
輸入層:以一個128x128像素的圖像為例,人工神經網絡只能處理一維的數據。所以要把圖像按順序展開為一維的像素數據。即(1,16384)1行和16384列的數據也是16384個特征。輸入層的每個神經元僅接收一個輸入特征,因此輸入層的神經元個數和圖像的特征數也即像素個數一樣有16384個。那么每個神經元的1個輸入需要求1個權重w,每個神經元要求一個參數b,因此輸入層的待求參數就有16384x2 =32768。文章來源:http://www.zghlxwxcb.cn/news/detail-442795.html
隱藏層:中間的每層隱藏層可以根據需求設置多個神經元。其中每個神經元都要輸入和前一層神經元的個數個輸入特征。輸入層比較特殊一個神經元只對應一個輸入X,中間隱藏層每個神經元對應輸入前一層所有神經元的個數個x。假如該隱藏層有328個神經元組成。連接的前一層是輸入層有128x128=16384個神經元。那么每個神經元都對應16384個輸入x,因此一個神經元的待求參數量為16384個w和1個b,那么該層所有的待求參數量為:(16384+1)x328=5,374,280?個待求參數??梢娙斯ど窠浘W絡的參數量非常多,難以計算而且很容易過文章來源地址http://www.zghlxwxcb.cn/news/detail-442795.html
到了這里,關于神經網絡(NN)網絡構建及模型算法介紹的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!