為了簡化感知器公式的表示法,我們將把偏差aaWp=b與其他權(quán)重合并到一個(gè)向量中[wo,1,。…,wd]“,其中T表示向量的轉(zhuǎn)置,所以w是acolumn向量,我們也將x作為列向量,并將其修改為x=[o,1,…,ad]T,其中所添加的坐標(biāo)ao固定在co=1。
With this convention,w Tx = >d_o WwiOi, and so Equation (1.1) can be rewrit-ten in vector form as 有了這個(gè)約定,w tx=>d_o wwioi,所以方程(1.1)可以作為向量形式的rewt-10,如
文章來源:http://www.zghlxwxcb.cn/news/detail-707458.html
我們現(xiàn)在介紹感知器學(xué)習(xí)算法(PLA),該算法將根據(jù)數(shù)據(jù)確定w是什么。讓我們假設(shè)數(shù)據(jù)集是線性可分的,這意味著有一個(gè)向量w使(1.2)在所有的訓(xùn)練考試中達(dá)到正確的判決h(Xn)=yn,如圖1.3所示。
我們的學(xué)習(xí)算法將使用一個(gè)簡單的迭代方法找到這個(gè)w,下面是它的工作原理。在迭代t中,t=0,1,2,.,有權(quán)向量的當(dāng)前值,稱為w(T)。該算法從(x1,y1)…中選擇一個(gè)示例(n,YN)目前被錯(cuò)誤分類,稱之為(x(T),g9(T)),并使用它更新w(T)。由于該示例被錯(cuò)誤分類,我們使用了gy(T)≠符號(hào)(WT(T)x(T))。這個(gè)規(guī)則正確地將邊界移向分類x(T)的方向,如上圖所示。該算法繼續(xù)進(jìn)行進(jìn)一步的迭代,直到數(shù)據(jù)集中不再有錯(cuò)誤分類的示例。
?文章來源地址http://www.zghlxwxcb.cn/news/detail-707458.html
到了這里,關(guān)于Learning From Data 中英文對(duì)照 1.THE LEARNING PROBLEM (第7頁)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!