国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

python-sklearn嶺回歸與LASSO回歸模型(套索)代碼實(shí)操

這篇具有很好參考價(jià)值的文章主要介紹了python-sklearn嶺回歸與LASSO回歸模型(套索)代碼實(shí)操。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

前言

hello大家好這里是小L??在這里想和大家一起學(xué)習(xí)一起進(jìn)步。??
這次筆記內(nèi)容:學(xué)習(xí)嶺回歸與LASSO回歸模型的sklearn實(shí)現(xiàn)。嶺回歸:平方和(L2正則化);LASSO回歸:絕對(duì)值(L1正則化)。
為了防止線性回歸的過(guò)擬合,加了正則化系數(shù),系數(shù)可能有正有負(fù),因此將他的絕對(duì)值或者平方和加起來(lái),使得誤差平方和最小。

一、嶺回歸

1.嶺回歸介紹

L2正則化
lasso代碼,機(jī)器學(xué)習(xí),python,sklearn,回歸,大數(shù)據(jù),機(jī)器學(xué)習(xí)

sklearn.linear_model.Ridge(

  • alpha=1:正則化因子(系數(shù)theta),入越大,越限制theta(即斜率k)越平緩,系數(shù)越小系數(shù)越小誤差越小。入越大,絕對(duì)值越接近于0。(限制x的發(fā)展,如果取0,x放飛)
  • fit_ intercept=True:截距,是否計(jì)算該模型截距。(除非數(shù)據(jù)標(biāo)準(zhǔn)化之后可false. )
  • normalize=False:標(biāo)準(zhǔn)化false,標(biāo)準(zhǔn)化一般在建模之前做(sklearn.preprocessing.StandardScale)。
  • copy_X=True:原始的x還在,中間的用另一個(gè)存在。如false不要原來(lái)的x,新數(shù)據(jù)覆蓋舊數(shù)據(jù)。
  • max_iter=None: 最大迭代次數(shù)
  • tol =0.001:忍耐力,每努力一次提升的效果不大,提升沒(méi)有超過(guò)0.001就停止
  • solver =‘a(chǎn)uto’:提供很多方法
    lasso代碼,機(jī)器學(xué)習(xí),python,sklearn,回歸,大數(shù)據(jù),機(jī)器學(xué)習(xí)
  • random_state:隨機(jī)種子

屬性

  • intercept_ :截距
  • coef_ :系數(shù)theta1到thetan,第幾個(gè)自變量前面的系數(shù),沒(méi)有截距,只限制theta1–thetan來(lái)防止過(guò)擬合(決定斜率k),theta0(截距)沒(méi)有關(guān)系
  • n_iter_:迭代多少次

方法

  • fit 訓(xùn)練
  • predict預(yù)測(cè)
  • score模型評(píng)估,不大于1,越大越好
  • get_params返回超參數(shù)的值
  • set_params修改超參數(shù)的值重新訓(xùn)練

2.代碼實(shí)現(xiàn)

from sklearn.datasets import load_diabetes
diabetes=load_diabetes()#以糖尿病模型為例
X=diabetes.data#自變量
y=diabetes.target#因變量
from sklearn.model_selection import train_test_split#數(shù)據(jù)劃分
X_train,X_test,y_train,y_test=train_test_split(X,y,random=8)
from sklearn.linear_model import Ridge#導(dǎo)入嶺回歸模型
ridge=Ridge()#模型實(shí)例化
ridge.fit(X_train,y_train)#模型訓(xùn)練
print("訓(xùn)練集的得分為:{:,2f}".format(ridge.score(X_train,y_train)))
print("測(cè)試集的得分為:{:,2f}".format(ridge.score(X_test,y_test)))

運(yùn)行結(jié)果如下:

訓(xùn)練數(shù)據(jù)集得分:0.43
測(cè)試數(shù)據(jù)集得分:0.43

可以看出效果并不是很好,但是也不能因?yàn)橐淮谓Y(jié)果否定這個(gè)模型,可以通過(guò)調(diào)參的方法,重新進(jìn)行模型訓(xùn)練。

3.嶺回歸參數(shù)調(diào)整

#嶺回歸調(diào)參
#正則化系數(shù)alpha=10
ridge10=Ridge(alpha=10).fit(X_train,y_train)
print("訓(xùn)練數(shù)據(jù)集得分:{:.2f}".format(ridge10.score(X_train,y_train)))
print("測(cè)試數(shù)據(jù)集得分:{:.2f}".format(ridge10.score(X_test,y_test)))

運(yùn)行結(jié)果如下:

訓(xùn)練數(shù)據(jù)集得分:0.15
測(cè)試數(shù)據(jù)集得分:0.16

可以看出結(jié)果更加糟糕

#正則化系數(shù)alpha=0.1
ridge01=Ridge(alpha=0.1).fit(X_train,y_train)
print("訓(xùn)練數(shù)據(jù)集得分:{:.2f}".format(ridge01.score(X_train,y_train)))
print("測(cè)試數(shù)據(jù)集得分:{:.2f}".format(ridge01.score(X_test,y_test)))

運(yùn)行結(jié)果如下:

訓(xùn)練數(shù)據(jù)集得分:0.52
測(cè)試數(shù)據(jù)集得分:0.47

4.嶺跡分析,可視化分析

#嶺跡分析
#10個(gè)特征0-9,在4種回歸的系數(shù)畫(huà)出來(lái)
#模型系數(shù)的可視化比較
%matplotlib inline
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif']=['SimHei']
plt.rcParams['axes.unicode_minus'] = False
plt.plot(ridge.coef_,'s',label='Ridge alpha=1')
plt.plot(ridge10.coef_,'^',label='Ridge alpha=10')
plt.plot(ridge01.coef_,'v',label='Ridge alpha=0.1')
plt.plot(lr.coef_,'o',label='linear regression')
plt.xlabel("系數(shù)序號(hào)")
plt.ylabel("系數(shù)量級(jí)")
plt.hlines(0,0,len(lr.coef_))#hlines水平線從0到10(查)
plt.legend(loc='best')
plt.grid(linestyle=':')

lasso代碼,機(jī)器學(xué)習(xí),python,sklearn,回歸,大數(shù)據(jù),機(jī)器學(xué)習(xí)

alpha越大,絕對(duì)值越接近于0。(限制x的發(fā)展,如果取0,x放飛)

#繪制學(xué)習(xí)曲線:取固定alpha的值,改變訓(xùn)練集的數(shù)量
import numpy as np
from sklearn.model_selection import learning_curve,KFold
def plot_learning_curve(est,X,y):
    training_set_size,train_scores,test_scores=learning_curve(
        est,X,y,train_sizes=np.linspace(.1,1,20),cv=KFold(20,shuffle=True,random_state=1))
    estimator_name=est.__class__.__name__
    line=plt.plot(training_set_size,train_scores.mean(axis=1),'--',
                 label='training'+estimator_name)
    plt.plot(training_set_size,test_scores.mean(axis=1),'-',
             label='test'+estimator_name,c=line[0].get_color())
    plt.xlabel('Training set size')
    plt.ylabel('Score')
    plt.ylim(0,1.1)
plot_learning_curve(Ridge(alpha=1),X,y)
plot_learning_curve(LinearRegression(),X,y)
plt.legend(loc=(0,1.05),ncol=2,fontsize=11)
plt.grid(linestyle=':')

lasso代碼,機(jī)器學(xué)習(xí),python,sklearn,回歸,大數(shù)據(jù),機(jī)器學(xué)習(xí)

二、LASSO回歸

1.LASSO回歸介紹

L1正則化
lasso代碼,機(jī)器學(xué)習(xí),python,sklearn,回歸,大數(shù)據(jù),機(jī)器學(xué)習(xí)

sklearn.linear_model.Lasso(

  • alpha=1:正則化因子(系數(shù)theta),入越大,越限制theta(即斜率k)越平緩,系數(shù)越小系數(shù)越小誤差越小。入越大,絕對(duì)值越接近于0。(限制x的發(fā)展,如果取0,x放飛)
  • fit_ intercept=True:截距,是否計(jì)算該模型截距。(除非數(shù)據(jù)標(biāo)準(zhǔn)化之后可false. )
  • normalize=False:標(biāo)準(zhǔn)化false,標(biāo)準(zhǔn)化一般在建模之前做(sklearn.preprocessing.StandardScale)。
  • precompute=False
  • **copy_X=**True:原始的x還在,中間的用另一個(gè)存在。如false不要原來(lái)的x,新數(shù)據(jù)覆蓋舊數(shù)據(jù)。
  • max_iter=1000: 最大迭代次數(shù)
  • tol =0.0001:忍耐力,每努力一次提升的效果不大,提升沒(méi)有超過(guò)0.001就停止
  • warm_start =True:下一次運(yùn)行會(huì)從當(dāng)前的點(diǎn)繼續(xù)往下走,若False每次都重新運(yùn)行一次[重新開(kāi)始](深度學(xué)習(xí)中經(jīng)常有這個(gè)參數(shù))
  • positive=False
  • random_state=None:隨機(jī)種子
    selection=‘cyclic’

2.代碼實(shí)現(xiàn)

from sklearn.datasets import load_diabetes
diabetes=load_diabetes()#以糖尿病模型為例
X=diabetes.data#自變量
y=diabetes.target#因變量
from sklearn.model_selection import train_test_split#數(shù)據(jù)劃分
X_train,X_test,y_train,y_test=train_test_split(X,y,random=8)
from sklearn.linear_model import Lasso#導(dǎo)入Lasso回歸模塊
lasso=Lasso()#模型實(shí)例化
lasso.fit(X_train,y_train)#模型訓(xùn)練
print("套索回歸在訓(xùn)練集的得分為:{:,2f}".format(lasso.score(X_train,y_train)))
print("套索回歸在測(cè)試集的得分為:{:,2f}".format(lasso.score(X_test,y_test)))

運(yùn)行結(jié)果如下:

訓(xùn)練數(shù)據(jù)集得分:0.36
測(cè)試數(shù)據(jù)集得分:0.37

可以看出效果并不是很好,但是也不能因?yàn)橐淮谓Y(jié)果否定這個(gè)模型,可以通過(guò)調(diào)參的方法,重新進(jìn)行模型訓(xùn)練。

ps. Lasso回歸的特征選擇

#嶺回歸圈圈(L2范數(shù),里面可以有多個(gè)0,削尖,把很多特征都削成0),Lasso回歸四條直線(L1范數(shù)方形)
lasso和嶺回歸,根據(jù)最小二乘法,最后需要使誤差最小。
lasso代碼,機(jī)器學(xué)習(xí),python,sklearn,回歸,大數(shù)據(jù),機(jī)器學(xué)習(xí)
lasso代碼,機(jī)器學(xué)習(xí),python,sklearn,回歸,大數(shù)據(jù),機(jī)器學(xué)習(xí)
lasso代碼,機(jī)器學(xué)習(xí),python,sklearn,回歸,大數(shù)據(jù),機(jī)器學(xué)習(xí)

由于嶺回歸對(duì)w的限制空間是圓形的,lasso對(duì)w的限制空間是由棱角的。橢圓更容易切在w為某一維的圖形為有棱角的圖形,即Lasso回歸模型。(圓形有凸起會(huì)阻擋切在0的位置)

LASSO回歸相對(duì)于嶺回歸,更適合做特征選擇。(面試問(wèn)題)
怎樣調(diào)節(jié)優(yōu)化多個(gè)特征,選出更重要的特征,使得我們的精度更高

print("套索回歸使用的特征數(shù):{}".format(np.sum(lasso.coef_!=0)))

運(yùn)行結(jié)果如下:

套索回歸使用的特征數(shù):3

比較一下嶺回歸和Lasso回歸中能使用的特征數(shù)
Lasso回歸

lasso.coef_

運(yùn)行結(jié)果如下:

array([  0.        ,  -0.        , 384.73421807,  72.69325545,
         0.        ,   0.        ,  -0.        ,   0.        ,
       247.88881314,   0.        ])

嶺回歸

ridge.coef_

運(yùn)行結(jié)果如下:

array([  36.8262072 ,  -75.80823733,  282.42652716,  207.39314972,
         -1.46580263,  -27.81750835, -134.3740951 ,   98.97724793,
        222.67543268,  117.97255343])

3.嶺回歸參數(shù)調(diào)整

#增大最大迭代次數(shù)的默認(rèn)設(shè)置,(默認(rèn)max_iter=1000)
lasso=Lasso(max_iter=100000)
lasso.fit(X_train,y_train)
print("訓(xùn)練數(shù)據(jù)集得分:{:.2f}".format(lasso.score(X_train,y_train)))
print("測(cè)試數(shù)據(jù)集得分:{:.2f}".format(lasso.score(X_test,y_test)))
print("套索回歸中使用的特征數(shù):{}".format(lasso.score(X_test,y_test)))

運(yùn)行結(jié)果如下:

訓(xùn)練數(shù)據(jù)集得分:0.36
測(cè)試數(shù)據(jù)集得分:0.37
套索回歸中使用的特征數(shù):0.36561858962128

可以看出結(jié)果并沒(méi)有什么變化,所以換一個(gè)參數(shù)繼續(xù)調(diào)參

#增加最大迭代次數(shù)的默認(rèn)值設(shè)置,(默認(rèn)max_iter=1000)
#同時(shí)調(diào)整alpha的值
lasso01=Lasso(alpha=0.1,max_iter=100000)
lasso01.fit(X_train,y_train)
print("訓(xùn)練數(shù)據(jù)集得分:{:.2f}".format(lasso01.score(X_train,y_train)))
print("測(cè)試數(shù)據(jù)集得分:{:.2f}".format(lasso01.score(X_test,y_test)))
print("套索回歸中使用的特征數(shù):{}".format(lasso01.score(X_test,y_test)))

運(yùn)行結(jié)果如下:

訓(xùn)練數(shù)據(jù)集得分:0.52
測(cè)試數(shù)據(jù)集得分:0.48
套索回歸中使用的特征數(shù):0.47994757514558173

繼續(xù)嘗試探索規(guī)律

#增加最大迭代次數(shù)的默認(rèn)值設(shè)置,(默認(rèn)max_iter=1000)
#同時(shí)調(diào)整alpha的值
lasso00001=Lasso(alpha=0.0001,max_iter=100000)
lasso00001.fit(X_train,y_train)
print("訓(xùn)練數(shù)據(jù)集得分:{:.2f}".format(lasso00001.score(X_train,y_train)))
print("測(cè)試數(shù)據(jù)集得分:{:.2f}".format(lasso00001.score(X_test,y_test)))
print("套索回歸中使用的特征數(shù):{}".format(lasso00001.score(X_test,y_test)))

結(jié)果如下:

訓(xùn)練數(shù)據(jù)集得分:0.53
測(cè)試數(shù)據(jù)集得分:0.46
套索回歸中使用的特征數(shù):0.4594509683706015

alpha越大,選的特征越少。alpha=0時(shí),普通的線性回歸(限制x的發(fā)展,如果取0,x放飛)

4.模型系數(shù)的數(shù)據(jù)可視化比較

plt.plot(ridge.coef_,'s',label='Ridge alpha=1')
plt.plot(ridge10.coef_,'^',label='Ridge alpha=10')
plt.plot(ridge01.coef_,'v',label='Ridge alpha=0.1')
plt.plot(lr.coef_,'o',label='linear regression')

plt.plot(lasso.coef_,'D',label='Lasso alpha=1')
plt.plot(lasso01.coef_,'H',label='Lasso alpha=0.1')
plt.plot(lasso00001.coef_,'p',label='Lasso alpha=0.0001')


plt.xlabel("系數(shù)序號(hào)")
plt.ylabel("系數(shù)量級(jí)")
plt.hlines(0,0,len(lr.coef_))#hlines水平線從0到10(查)
plt.legend(loc='best')
plt.grid(linestyle=':')

lasso代碼,機(jī)器學(xué)習(xí),python,sklearn,回歸,大數(shù)據(jù),機(jī)器學(xué)習(xí)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-780230.html

到了這里,關(guān)于python-sklearn嶺回歸與LASSO回歸模型(套索)代碼實(shí)操的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 基于Lasso回歸的實(shí)證分析(Python實(shí)現(xiàn)代碼)

    基于Lasso回歸的實(shí)證分析(Python實(shí)現(xiàn)代碼)

    基于Lasso回歸的實(shí)證分析 一、背景 隨著信息化時(shí)代的到來(lái),對(duì)如證券市場(chǎng)交易數(shù)據(jù)、多媒體圖形圖像視頻數(shù)據(jù)、航天航空采集數(shù)據(jù)、生物特征數(shù)據(jù)等數(shù)據(jù)維度遠(yuǎn)大于樣本量個(gè)數(shù)的高維數(shù)據(jù)分析逐漸占據(jù)重要地位。而在分析高維數(shù)據(jù)過(guò)程中碰到最大的問(wèn)題就是維數(shù)膨脹,也就是

    2024年02月01日
    瀏覽(40)
  • 猿創(chuàng)征文|Python-sklearn機(jī)器學(xué)習(xí)之旅:我的第一個(gè)機(jī)器學(xué)習(xí)實(shí)戰(zhàn)項(xiàng)目

    目錄 前言 一、從目的出發(fā) 1.導(dǎo)入數(shù)據(jù) 二、項(xiàng)目開(kāi)啟 1.導(dǎo)入數(shù)據(jù)

    2024年01月24日
    瀏覽(100)
  • 回歸預(yù)測(cè)模型:MATLAB嶺回歸和Lasso回歸

    回歸預(yù)測(cè)模型:MATLAB嶺回歸和Lasso回歸

    1. 嶺回歸和Lasso回歸的基本原理 1.1 嶺回歸: 嶺回歸(Ridge Regression) 是一種用于共線性數(shù)據(jù)分析的技術(shù)。共線性指的是自變量之間存在高度相關(guān)關(guān)系。嶺回歸通過(guò)在損失函數(shù)中添加一個(gè)L2正則項(xiàng)( λ ∑ j = 1 n β j 2 lambda sum_{j=1}^{n} beta_j^2 λ ∑ j = 1 n ? β j 2 ? )來(lái)減小回歸

    2024年02月19日
    瀏覽(91)
  • 【R語(yǔ)言】LASSO回歸(含代碼)

    【R語(yǔ)言】LASSO回歸(含代碼)

    LASSO回歸是由統(tǒng)計(jì)學(xué)家Robert Tibshirani于1996年提出的一種回歸分析方法。它通過(guò)在損失函數(shù)中加入L1正則化項(xiàng),實(shí)現(xiàn)對(duì)模型參數(shù)的懲罰,使得一部分參數(shù)趨于零。這種稀疏性的特點(diǎn)使得LASSO回歸在高維數(shù)據(jù)集中具有出色的性能。 基因表達(dá)數(shù)據(jù)分析:LASSO回歸可以用于選擇最相關(guān)的

    2024年04月11日
    瀏覽(24)
  • 多元線性回歸的python代碼實(shí)現(xiàn)(基于sklearn的波士頓房?jī)r(jià)boston數(shù)據(jù)集為例)

    基于sklearn自帶數(shù)據(jù)集波士頓房?jī)r(jià)數(shù)據(jù)集進(jìn)行多元線性回歸算法代碼實(shí)現(xiàn),其數(shù)據(jù)集包括13個(gè)特征向量,共計(jì)506個(gè)樣本集。 本文代碼實(shí)現(xiàn)步驟如下: 1. 獲取數(shù)據(jù)集 2. 數(shù)據(jù)集切分,老規(guī)矩,80%訓(xùn)練,20%測(cè)試 3. 數(shù)據(jù)預(yù)處理(本用例嘗試過(guò)歸一化處理,但發(fā)現(xiàn)效果不好,不是每一個(gè)

    2024年02月06日
    瀏覽(21)
  • 模型應(yīng)用系實(shí)習(xí)生-模型訓(xùn)練筆記(更新至線性回歸、Ridge回歸、Lasso回歸、Elastic Net回歸、決策樹(shù)回歸、梯度提升樹(shù)回歸和隨機(jī)森林回歸)

    模型應(yīng)用系實(shí)習(xí)生-模型訓(xùn)練筆記(更新至線性回歸、Ridge回歸、Lasso回歸、Elastic Net回歸、決策樹(shù)回歸、梯度提升樹(shù)回歸和隨機(jī)森林回歸)

    本次訓(xùn)練的變量是一致對(duì)應(yīng)的,訓(xùn)練準(zhǔn)備通過(guò)后,后續(xù)建模都不會(huì)有報(bào)錯(cuò)的! scikit-learn包以及鏡像 必須全部為數(shù)字類型且無(wú)空值才能進(jìn)行訓(xùn)練,關(guān)于非數(shù)據(jù)類型需要進(jìn)行相對(duì)處理例如:可以采用獨(dú)熱編碼或者label編碼進(jìn)行處理。 本文演示的是pandas 的dataframe數(shù)據(jù)類型的操作,

    2024年02月06日
    瀏覽(26)
  • 二分類結(jié)局LASSO回歸篩選變量-R操作(從數(shù)據(jù)開(kāi)始)+全套代碼

    二分類結(jié)局LASSO回歸篩選變量-R操作(從數(shù)據(jù)開(kāi)始)+全套代碼

    一、原始數(shù)據(jù)處理 如圖: 結(jié)局status為二分類變量(用0,1表示) 自變量為X1~X15 數(shù)據(jù)文件名為mydata.csv 二、將數(shù)據(jù)導(dǎo)入Rstudio 點(diǎn)readr后點(diǎn)擊browse找到你的數(shù)據(jù),點(diǎn)擊Import就可以導(dǎo)入進(jìn)來(lái)了。 三、R代碼進(jìn)行LASSO回歸 如下圖所示,第一張圖為plot(lasso_model,xvar=“l(fā)ambda”)的結(jié)果 第

    2024年01月22日
    瀏覽(147)
  • python實(shí)現(xiàn)Lasso回歸分析(特征篩選、建模預(yù)測(cè))

    python實(shí)現(xiàn)Lasso回歸分析(特征篩選、建模預(yù)測(cè))

    實(shí)現(xiàn)功能: python實(shí)現(xiàn)Lasso回歸分析(特征篩選、建模預(yù)測(cè)) 輸入結(jié)構(gòu)化數(shù)據(jù),含有特征以及相應(yīng)的標(biāo)簽,采用Lasso回歸對(duì)特征進(jìn)行分析篩選,并對(duì)數(shù)據(jù)進(jìn)行建模預(yù)測(cè)。 實(shí)現(xiàn)代碼: 實(shí)現(xiàn)效果: # 繪制Lambda與回歸系數(shù)的關(guān)系 ???# 基于最佳的lambda值建模進(jìn)行特征分析 ???# 基于

    2023年04月12日
    瀏覽(24)
  • 【sklearn】回歸模型常規(guī)建模流程

    基于數(shù)十種統(tǒng)計(jì)類型特征,構(gòu)建LR回歸模型。代碼邏輯包含:樣本切分、特征預(yù)處理、模型訓(xùn)練、模型評(píng)估、特征重要性的可視化。 步驟一:導(dǎo)入所需庫(kù) 步驟二:讀取數(shù)據(jù) 步驟三:數(shù)據(jù)預(yù)處理 步驟四:模型評(píng)估 步驟五:特征重要性的可視化

    2024年02月14日
    瀏覽(33)
  • 機(jī)器學(xué)習(xí)回歸任務(wù)指標(biāo)評(píng)價(jià)及Sklearn神經(jīng)網(wǎng)絡(luò)模型評(píng)價(jià)實(shí)踐

    機(jī)器學(xué)習(xí)回歸任務(wù)指標(biāo)評(píng)價(jià)及Sklearn神經(jīng)網(wǎng)絡(luò)模型評(píng)價(jià)實(shí)踐

    機(jī)器學(xué)習(xí)回歸模型評(píng)價(jià)是指對(duì)回歸模型的性能進(jìn)行評(píng)估,以便選擇最佳的回歸模型。其中,MAE、MSE、RMSE 用于衡量模型預(yù)測(cè)值與真實(shí)值之間的誤差大小,R2 用于衡量模型對(duì)數(shù)據(jù)的擬合程度。在實(shí)際應(yīng)用中,我們可以使用這些指標(biāo)來(lái)評(píng)估回歸模型的性能,并對(duì)模型進(jìn)行優(yōu)化。

    2024年02月05日
    瀏覽(21)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包