国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

機器學(xué)習(xí)基礎(chǔ)10-審查回歸算法(基于波士頓房價的數(shù)據(jù)集)

這篇具有很好參考價值的文章主要介紹了機器學(xué)習(xí)基礎(chǔ)10-審查回歸算法(基于波士頓房價的數(shù)據(jù)集)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

上一節(jié)介紹了如何審查分類算法,并介紹了六種不同的分類算法,還
用同一個數(shù)據(jù)集按照相同的方式對它們做了審查,本章將用相同的方式對回歸算法進行審查。

在本節(jié)將學(xué)到:

  • 如何審查機器學(xué)習(xí)的回歸算法。
  • 如何審查四種線性分類算法。
  • 如何審查三種非線性分類算法。

算法概述

本章將審查七種回歸算法。首先介紹四種線性算法:

  • 線性回歸算法。
  • 嶺回歸算法(脊回歸算法)。
  • 套索回歸算法。
  • 彈性網(wǎng)絡(luò)(Elastic Net)回歸算法。

然后介紹三種非線性算法:

  • K近鄰算法(KNN)。
  • 分類與回歸樹算法。
  • 支持向量機(SVM)。

本章將使用波士頓房價的數(shù)據(jù)集來審查回歸算法,采用10折交叉驗證來分離數(shù)據(jù),并應(yīng)用到所有的算法上。另外,還會通過均方誤差來評估算法模型。scikit-learn 中的cross_val_score()函數(shù)能夠幫助評估算法模型,我們就用這個函數(shù)來評估算法模型。

線性算法分析

首先介紹scikit-learn中用來處理機器學(xué)習(xí)中的回歸問題的四種算法。

線性回歸算法

線性回歸算法是利用數(shù)理統(tǒng)計中的回歸分析,來確定兩種或兩種以上變量間相互依賴的定量關(guān)系的一種統(tǒng)計分析方法,運用十分廣泛。其表達(dá)式為y=w’x+e,e表示誤差服從均值為 0 的正態(tài)分布。在回歸分析中,只包括一個自變量和一個因變量,且二者的關(guān)系可用一條直線近似表示,這種回歸分析稱為一元線性回歸分析。

如果回歸分析中包括兩個或兩個以上的自變量,且因變量和自變量之間是線性關(guān)系,則稱為多元線性回歸分析。

在scikit-learn中實現(xiàn)線性回歸算法的是LinearRegression類

代碼如下:

數(shù)據(jù)集下載地址


import pandas as pd
from sklearn.linear_model import  LinearRegression

from sklearn.model_selection import  KFold, cross_val_score

#數(shù)據(jù)預(yù)處理
path = 'D:\down\\BostonHousing.csv'
data = pd.read_csv(path)

array = data.values

X = array[:, 0:13]
Y = array[:, 13]

n_splits = 10

seed = 7

kflod = KFold(n_splits=n_splits, random_state=seed, shuffle=True)
#
model = LinearRegression()

scoring = 'neg_mean_squared_error'

results = cross_val_score(model, X, Y, cv=kflod, scoring=scoring)

print("LinearRegression MSE: %.3f (%.3f)" % (results.mean(), results.std()))




運行結(jié)果:

LinearRegression MSE: -23.747 (11.143)

嶺回歸算法

嶺回歸算法是一種專門用于共線性數(shù)據(jù)分析的有偏估計回歸方法,實際上是一種改良的最小二乘估計法,通過放棄最小二乘法的無偏性,以損
失部分信息、降低精度為代價,獲得回歸系數(shù)更符合實際、更可靠的回歸方法,對病態(tài)數(shù)據(jù)的擬合要強于最小二乘法。在scikit-learn中實現(xiàn)嶺回歸算法的是Ridge類。

代碼如下:


import pandas as pd
from sklearn.linear_model import LinearRegression, Ridge

from sklearn.model_selection import  KFold, cross_val_score

#數(shù)據(jù)預(yù)處理
path = 'D:\down\\BostonHousing.csv'
data = pd.read_csv(path)

array = data.values

X = array[:, 0:13]
Y = array[:, 13]

n_splits = 10

seed = 7

kflod = KFold(n_splits=n_splits, random_state=seed, shuffle=True)
#
model = Ridge()

scoring = 'neg_mean_squared_error'

results = cross_val_score(model, X, Y, cv=kflod, scoring=scoring)

print("Ridge MSE: %.3f (%.3f)" % (results.mean(), results.std()))




運行結(jié)果:

Ridge MSE: -23.890 (11.407)

套索回歸算法

套索回歸算法和嶺回歸算法類似,套索回歸算法也會懲罰回歸系數(shù),在套索回歸中會懲罰回歸系數(shù)的絕對值大小。此外,它能夠減少變化程度并提高線性回歸模型的精度。套索回歸算法和嶺回歸算法有一點不同,它使用的懲罰函數(shù)是絕對值,而不是平方。這導(dǎo)致懲罰(或等于約束估計的絕對值之和)值使一些參數(shù)估計結(jié)果等于零。使用懲罰值越大,進一步估計會使縮小值越趨近零。這將導(dǎo)致我們要從給定的n個變量中選擇變量。如果預(yù)測的一組變量高度相似,套索回歸算法會選擇其中的一個變量,并將其他的變量收縮為零。

在scikit-learn中的實現(xiàn)類是Lasso。

代碼如下:


import pandas as pd
from sklearn.linear_model import LinearRegression, Ridge, Lasso

from sklearn.model_selection import  KFold, cross_val_score

#數(shù)據(jù)預(yù)處理
path = 'D:\down\\BostonHousing.csv'
data = pd.read_csv(path)

array = data.values

X = array[:, 0:13]
Y = array[:, 13]

n_splits = 10

seed = 7

kflod = KFold(n_splits=n_splits, random_state=seed, shuffle=True)
#
model = Lasso()

scoring = 'neg_mean_squared_error'

results = cross_val_score(model, X, Y, cv=kflod, scoring=scoring)

print("Lasso MSE: %.3f (%.3f)" % (results.mean(), results.std()))




運行結(jié)果:

Lasso MSE: -28.746 (12.002)

彈性網(wǎng)絡(luò)回歸算法

彈性網(wǎng)絡(luò)回歸算法是套索回歸算法和嶺回歸算法的混合體,在模型訓(xùn)練時,彈性網(wǎng)絡(luò)回歸算法綜合使用L1和L2兩種正則化方法。當(dāng)有多個相關(guān)的特征時,彈性網(wǎng)絡(luò)回歸算法是很有用的,套索回歸算法會隨機挑選算法中的一個,而彈性網(wǎng)絡(luò)回歸算法則會選擇兩個。與套索回歸算法和嶺回歸算法相比,彈性網(wǎng)絡(luò)回歸算法的優(yōu)點是,它允許彈性網(wǎng)絡(luò)回歸繼承循環(huán)狀態(tài)下嶺回歸的一些穩(wěn)定性。另外,在高度相關(guān)變量的情況下,它會產(chǎn)生群體效應(yīng);選擇變量的數(shù)目沒有限制;可以承受雙重收縮。
在 scikit-learn中的實現(xiàn)類是ElasticNet。
代碼如下:


import pandas as pd
from sklearn.linear_model import LinearRegression, Ridge, Lasso, ElasticNet

from sklearn.model_selection import  KFold, cross_val_score

#數(shù)據(jù)預(yù)處理
path = 'D:\down\\BostonHousing.csv'
data = pd.read_csv(path)

array = data.values

X = array[:, 0:13]
Y = array[:, 13]

n_splits = 10

seed = 7

kflod = KFold(n_splits=n_splits, random_state=seed, shuffle=True)
#
model = ElasticNet()

scoring = 'neg_mean_squared_error'

results = cross_val_score(model, X, Y, cv=kflod, scoring=scoring)

print("ElasticNet MSE: %.3f (%.3f)" % (results.mean(), results.std()))




運行結(jié)果:文章來源地址http://www.zghlxwxcb.cn/news/detail-672733.html

ElasticNet MSE: -27.908 (11.484)

到了這里,關(guān)于機器學(xué)習(xí)基礎(chǔ)10-審查回歸算法(基于波士頓房價的數(shù)據(jù)集)的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 機器學(xué)習(xí)(線性回歸實訓(xùn))------波士頓房價

    機器學(xué)習(xí)(線性回歸實訓(xùn))------波士頓房價

    1.機器學(xué)習(xí) 機器學(xué)習(xí)是人工智能 (AI)?和計算機科學(xué)的分支,專注于使用數(shù)據(jù)和算法來模仿人類學(xué)習(xí)的方式,逐漸提高其準(zhǔn)確性。機器學(xué)習(xí)是不斷成長的數(shù)據(jù)科學(xué)領(lǐng)域的重要組成部分。 通過使用統(tǒng)計方法,對算法進行訓(xùn)練,以進行分類或預(yù)測,揭示數(shù)據(jù)挖掘項目中的關(guān)鍵洞察

    2024年02月06日
    瀏覽(26)
  • python-機器學(xué)習(xí)-波士頓房價回歸分析

    python-機器學(xué)習(xí)-波士頓房價回歸分析

    ????????以波士頓房價數(shù)據(jù)集為對象,理解數(shù)據(jù)和認(rèn)識數(shù)據(jù),掌握 梯度下降法 和 回歸分析 的初步方法,掌握 模型正則化 的一般方法,對回歸分析的結(jié)果解讀。 ????????波士頓房價數(shù)據(jù)集是20世紀(jì)70年代中期波士頓郊區(qū)房價的中位數(shù),統(tǒng)計了當(dāng)時城市的13個指標(biāo)與房價

    2024年02月06日
    瀏覽(21)
  • 機器學(xué)習(xí)之利用線性回歸預(yù)測波士頓房價和可視化分析影響房價因素實戰(zhàn)(python實現(xiàn) 附源碼 超詳細(xì))

    機器學(xué)習(xí)之利用線性回歸預(yù)測波士頓房價和可視化分析影響房價因素實戰(zhàn)(python實現(xiàn) 附源碼 超詳細(xì))

    數(shù)據(jù)集和源碼請點贊關(guān)注收藏后評論區(qū)留下QQ郵箱或者私信 線性回歸是利用最小二乘函數(shù)對一個或多個因變量之間關(guān)系進行建模的一種回歸分析,這種函數(shù)是一個或多個稱為回歸系數(shù)的模型參數(shù)的線性組合。只有一個變量的稱為一元回歸,大于一個變量的情況叫做多元回歸。

    2024年01月21日
    瀏覽(28)
  • 【機器學(xué)習(xí)】P25 隨機森林算法(2) 實現(xiàn) “波士頓房價” 預(yù)測

    【機器學(xué)習(xí)】P25 隨機森林算法(2) 實現(xiàn) “波士頓房價” 預(yù)測

    隨機森林(Random Forest)算法 是一種 集成學(xué)習(xí)(Ensemble Learning)方法,它由多個決策樹組成,是一種分類、回歸和特征選擇的機器學(xué)習(xí)算法。 在隨機森林中,每個決策樹都是獨立地訓(xùn)練的,每棵樹的建立都是基于隨機選取的 特征子集 和隨機選取的 訓(xùn)練樣本集 。 在分類問題

    2024年02月01日
    瀏覽(41)
  • 機器學(xué)習(xí)基礎(chǔ)算法--回歸類型和評價分析

    機器學(xué)習(xí)基礎(chǔ)算法--回歸類型和評價分析

    目錄 1.數(shù)據(jù)歸一化處理 2.數(shù)據(jù)標(biāo)準(zhǔn)化處理 3.Lasso回歸模型 4.嶺回歸模型 5.評價指標(biāo)計算 ?? ?? MSE= i=1 n ( Y i - Y ^ ) 2 n RMES= i=1 n ( Y i - Y ^ ) 2 n MAE= i=1 n | Y i - Y ^ | n R 2 =1- i=1 n ( Y ^ - Y i ) 2 i=1 n ( Y ˉ - Y i )2

    2024年02月09日
    瀏覽(21)
  • 機器學(xué)習(xí)基礎(chǔ)之《回歸與聚類算法(4)—邏輯回歸與二分類(分類算法)》

    機器學(xué)習(xí)基礎(chǔ)之《回歸與聚類算法(4)—邏輯回歸與二分類(分類算法)》

    一、什么是邏輯回歸 1、邏輯回歸(Logistic Regression)是機器學(xué)習(xí)中的一種分類模型,邏輯回歸是一種分類算法,雖然名字中帶有回歸,但是它與回歸之間有一定的聯(lián)系。由于算法的簡單和高效,在實際中應(yīng)用非常廣泛 2、叫回歸,但是它是一個分類算法 二、邏輯回歸的應(yīng)用場

    2024年02月07日
    瀏覽(29)
  • 機器學(xué)習(xí)算法(一): 基于邏輯回歸的分類預(yù)測

    邏輯回歸的介紹 邏輯回歸(Logistic regression,簡稱LR)雖然其中帶有\(zhòng)\\"回歸\\\"兩個字,但邏輯回歸其實是一個 分類 模型,并且廣泛應(yīng)用于各個領(lǐng)域之中。雖然現(xiàn)在深度學(xué)習(xí)相對于這些傳統(tǒng)方法更為火熱,但實則這些傳統(tǒng)方法由于其獨特的優(yōu)勢依然廣泛應(yīng)用于各個領(lǐng)域中。 而對于

    2024年01月15日
    瀏覽(32)
  • 機器學(xué)習(xí)算法基礎(chǔ)--邏輯回歸簡單處理mnist數(shù)據(jù)集項目

    機器學(xué)習(xí)算法基礎(chǔ)--邏輯回歸簡單處理mnist數(shù)據(jù)集項目

    目錄 1.項目背景介紹 2.Mnist數(shù)據(jù)導(dǎo)入 3.數(shù)據(jù)標(biāo)簽提取且劃分?jǐn)?shù)據(jù)集 4.數(shù)據(jù)特征標(biāo)準(zhǔn)化 5.模型建立與訓(xùn)練 6.后驗概率判斷及預(yù)測 7.處理模型閾值及準(zhǔn)確率 8.閾值分析的可視化繪圖 9.模型精確性的評價標(biāo)準(zhǔn)

    2024年02月07日
    瀏覽(25)
  • 機器學(xué)習(xí):基于梯度下降算法的邏輯回歸實現(xiàn)和原理解析

    機器學(xué)習(xí):基于梯度下降算法的邏輯回歸實現(xiàn)和原理解析

    當(dāng)涉及到二元分類問題時,邏輯回歸是一種常用的機器學(xué)習(xí)算法。它不僅簡單而且有效,通常是入門機器學(xué)習(xí)領(lǐng)域的第一步。本文將介紹邏輯回歸的基本概念、原理、應(yīng)用場景和代碼示例。 邏輯回歸是一種用于解決二元分類問題的統(tǒng)計學(xué)習(xí)方法。盡管其名稱中包含\\\"回歸\\\"一詞

    2024年02月09日
    瀏覽(30)
  • 基于回歸分析的波士頓房價分析

    基于回歸分析的波士頓房價分析

    項目實現(xiàn)步驟: 1.項目結(jié)構(gòu) 2.處理數(shù)據(jù) 3.處理繪圖 4.對數(shù)據(jù)進行分析 5.結(jié)果展示 一.項目結(jié)構(gòu) 二.處理數(shù)據(jù) 使用sklearn的datasets時,對應(yīng)的波士頓房價數(shù)據(jù)已經(jīng)被“移除”,在獲取數(shù)據(jù)時,會出現(xiàn) ,此時,在該提示的下方會有相關(guān)的解決方法 不建議使用提供的方法,對應(yīng)方法的

    2024年02月09日
    瀏覽(19)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包