線性神經(jīng)網(wǎng)絡(luò)
在介紹深度神經(jīng)網(wǎng)絡(luò)之前,我們需要了解神經(jīng)網(wǎng)絡(luò)訓(xùn)練的基礎(chǔ)知識。 本章我們將介紹神經(jīng)網(wǎng)絡(luò)的整個訓(xùn)練過程, 包括:定義簡單的神經(jīng)網(wǎng)絡(luò)架構(gòu)、數(shù)據(jù)處理、指定損失函數(shù)和如何訓(xùn)練模型。 為了更容易學(xué)習(xí),我們將從經(jīng)典算法————線性神經(jīng)網(wǎng)絡(luò)開始,介紹神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識。 經(jīng)典統(tǒng)計學(xué)習(xí)技術(shù)中的線性回歸和softmax回歸可以視為線性神經(jīng)網(wǎng)絡(luò),
回歸(regression)是能為一個或多個自變量與因變量之間關(guān)系建模的一類方法。 在自然科學(xué)和社會科學(xué)領(lǐng)域,回歸經(jīng)常用來表示輸入和輸出之間的關(guān)系。
在機器學(xué)習(xí)領(lǐng)域中的大多數(shù)任務(wù)通常都與預(yù)測(prediction)有關(guān)。 當(dāng)我們想預(yù)測一個數(shù)值時,就會涉及到回歸問題。 常見的例子包括:預(yù)測價格(房屋、股票等)、預(yù)測住院時間(針對住院病人等)、 預(yù)測需求(零售銷量等)。 但不是所有的預(yù)測都是回歸問題。 在后面的章節(jié)中,我們將介紹分類問題。分類問題的目標(biāo)是預(yù)測數(shù)據(jù)屬于一組類別中的哪一個。
線性回歸的基本元素
線性回歸(linear regression)可以追溯到19世紀初, 它在回歸的各種標(biāo)準工具中最簡單而且最流行。 線性回歸基于幾個簡單的假設(shè): 首先,假設(shè)自變量x和因變量y之間的關(guān)系是線性的, 即y可以表示為x中元素的加權(quán)和,這里通常允許包含觀測值的一些噪聲; 其次,我們假設(shè)任何噪聲都比較正常,如噪聲遵循正態(tài)分布。文章來源:http://www.zghlxwxcb.cn/news/detail-735096.html
為了解釋線性回歸,我們舉一個實際的例子: 我們希望根據(jù)房屋的面積(平方英尺)和房齡(年)來估算房屋價格(美元)。 為了開發(fā)一個能預(yù)測房價的模型,我們需要收集一個真實的數(shù)據(jù)集。 這個數(shù)據(jù)集包括了房屋的銷售價格、面積和房齡。 在機器學(xué)習(xí)的術(shù)語中,該數(shù)據(jù)集稱為訓(xùn)練數(shù)據(jù)集(training data set) 或訓(xùn)練集(training set)。 每行數(shù)據(jù)(比如一次房屋交易相對應(yīng)的數(shù)據(jù))稱為樣本(sample), 也可以稱為數(shù)據(jù)點(data point)或數(shù)據(jù)樣本(data instance)。 我們把試圖預(yù)測的目標(biāo)(比如預(yù)測房屋價格)稱為標(biāo)簽(label)或目標(biāo)(target)。 預(yù)測所依據(jù)的自變量(面積和房齡)稱為特征(feature)或協(xié)變量(covariate)。文章來源地址http://www.zghlxwxcb.cn/news/detail-735096.html
到了這里,關(guān)于人工智能-線性神經(jīng)網(wǎng)絡(luò)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!