認(rèn)識(shí)感知機(jī)
感知機(jī)接收多個(gè)輸入信號(hào),輸出一個(gè)信號(hào)
感知機(jī)的信號(hào)只有“流/不流”(1/0)兩種取值
0對(duì)應(yīng)“不傳遞信號(hào)”,1對(duì)應(yīng)“傳遞信號(hào)”。
輸入信號(hào)被送往神經(jīng)元時(shí),會(huì)被分別乘以固定的權(quán)重。神經(jīng)元會(huì)計(jì)算傳送過(guò)來(lái)的信號(hào)的綜合,只有當(dāng)這個(gè)綜合超過(guò)了某個(gè)界限值時(shí),才會(huì)輸出1。這也叫“神經(jīng)元被激活”。界限值也叫閾值
在感知機(jī)中,“輸入”也作為神經(jīng)元節(jié)點(diǎn),標(biāo)為“輸入單元”。感知機(jī)僅有兩層:分別是輸入層和輸出層。輸入層里的“輸入單元”只負(fù)責(zé)傳輸數(shù)據(jù),不做計(jì)算。輸出層里的“輸出單元”則需要對(duì)前面一層的輸入進(jìn)行計(jì)算。
感知機(jī)模型
簡(jiǎn)單邏輯電路
與門(mén)(AND gate) :僅在兩個(gè)輸人均為1時(shí)輸出1,其他時(shí)候則輸出0。
與非門(mén)(NAND gate): 僅當(dāng)書(shū)和同時(shí)為1時(shí)輸出0其他時(shí)候則輸出1。
或門(mén):只要有一個(gè)輸入信號(hào)是1,輸出就為1
AND函數(shù)實(shí)現(xiàn)
def AND(x1, x2):
x = np.array([x1, x2])
w = np.array([0.5, 0.5])
b = -0.7
tmp = np.sum(w*x) + b
if tmp <= 0:
return 0
else:
return 1
b是偏置,w稱為權(quán)重
偏置的值決定了神經(jīng)元被激活的容易程度。
權(quán)重控制輸入信號(hào)的重要性
與非門(mén)的實(shí)現(xiàn)
def NAND(x1, x2):
x = np.array([x1, x2])
w = np.array([-0.5, -0.5])
b = 0.7
tmp = np.sum(w*x) + b
if tmp <= 0:
return 0
else:
return 1
或門(mén)的實(shí)現(xiàn)
def OR(x1, x2):
x = np.array([x1, x2])
w = np.array([0.5, 0.5])
b = -0.2
tmp = np.sum(w*x) + b
if tmp <= 0:
return 0
else:
return 1
異或門(mén)XOR
異或門(mén)也被稱為邏輯異或電路,僅當(dāng)x1或x2中的一方為1時(shí),才會(huì)輸出1
用前面介紹的感知機(jī)是無(wú)法實(shí)現(xiàn)這個(gè)異或門(mén)的,因?yàn)楫惢蜷T(mén)是非線性的而感知機(jī)只能表示由一條直線分割的空間
由曲線分制而成的空間非線性空間,由直線分割而成的空間稱為線性空間。
但是可以通過(guò)疊加層實(shí)現(xiàn)
實(shí)現(xiàn)如下:
def XOR(x1,x2):
s1= NAND(x1, x2)
s2= OR(x1, x2)
y= AND(x1, x2)
return y
異或門(mén)是一種多層結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)
將最左邊的列稱為第0層,中間的一列稱為第1層,最右邊的一列稱為第2層。
疊加了多層的感知機(jī)也稱為多層感知機(jī)文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-492360.html
感知機(jī)通過(guò)疊加層能夠進(jìn)行非線性的標(biāo)識(shí),理論上還可以標(biāo)識(shí)計(jì)算機(jī)進(jìn)行的處理文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-492360.html
到了這里,關(guān)于【深度學(xué)習(xí)】1 感知機(jī)(人工神經(jīng)元)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!