国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【scikit-learn基礎(chǔ)】--『回歸模型評(píng)估』之誤差分析

這篇具有很好參考價(jià)值的文章主要介紹了【scikit-learn基礎(chǔ)】--『回歸模型評(píng)估』之誤差分析。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

模型評(píng)估在統(tǒng)計(jì)學(xué)和機(jī)器學(xué)習(xí)中具有至關(guān)重要,它幫助我們主要目標(biāo)是量化模型預(yù)測(cè)新數(shù)據(jù)的能力。

在這個(gè)數(shù)據(jù)充斥的時(shí)代,沒有評(píng)估的模型就如同盲人摸象,可能帶來誤導(dǎo)和誤判。
模型評(píng)估不僅是一種方法,更是一種保障,確保我們?cè)跀?shù)據(jù)海洋中航行時(shí),能夠依賴準(zhǔn)確的模型,做出明智的決策。

本篇主要介紹模型評(píng)估時(shí),如何利用scikit-learn幫助我們快速進(jìn)行各種誤差的分析。

1. 平均絕對(duì)誤差

平均絕對(duì)誤差(Mean Absolute Error,簡(jiǎn)稱MAE),它用于度量預(yù)測(cè)值與真實(shí)值之間的平均誤差大小
它能直觀地反映出預(yù)測(cè)的準(zhǔn)確性,MAE越小,說明模型的預(yù)測(cè)能力越好。

1.1. 計(jì)算公式

平均絕對(duì)誤差的計(jì)算公式如下:
\(\text{MAE}(y, \hat{y}) = \frac{1}{n} \sum_{i=0}^{n-1} \left| y_i - \hat{y}_i \right|.\)
其中,\(n\)是樣本數(shù)量,\(y_i\)是真實(shí)值,\(\hat{y_i}\)是預(yù)測(cè)值。

1.2. 使用示例

from sklearn.metrics import mean_absolute_error
import numpy as np

# 隨機(jī)生成100個(gè)sample
n = 100
y_true = np.random.randint(1, 100, n)
y_pred = np.random.randint(1, 100, n)

mean_absolute_error(y_true, y_pred)

mean_absolute_error就是scikit-learn中用來計(jì)算MAE的函數(shù)。

2. 均方誤差

均方誤差Mean Squared Error,簡(jiǎn)稱MSE),它用于衡量模型的預(yù)測(cè)值與實(shí)際觀測(cè)值之間的差異。
MSE越小,表示模型的預(yù)測(cè)值與實(shí)際觀測(cè)值之間的差異較小,即模型具有較高的預(yù)測(cè)精度。

2.1. 計(jì)算公式

\(\text{MSE}(y, \hat{y}) = \frac{1}{n} \sum_{i=0}^{n - 1} (y_i - \hat{y}_i)^2.\)
其中,\(n\)是樣本數(shù)量,\(y_i\)是真實(shí)值,\(\hat{y_i}\)是預(yù)測(cè)值。

2.2. 使用示例

from sklearn.metrics import mean_squared_error
import numpy as np

n = 100
y_true = np.random.randint(1, 100, n)
y_pred = np.random.randint(1, 100, n)

mean_squared_error(y_true, y_pred)

mean_squared_error就是scikit-learn中用來計(jì)算MSE的函數(shù)。

3. 均方對(duì)數(shù)誤差

均方對(duì)數(shù)誤差Mean Squared Log Error,簡(jiǎn)稱MSLE),與均方誤差MSE)相比,MSLE在計(jì)算誤差時(shí)先對(duì)預(yù)測(cè)值和真實(shí)值取對(duì)數(shù)。
通過對(duì)數(shù)轉(zhuǎn)換,MSLE能夠減小較大值和較小值之間的差異,使得誤差度量更為穩(wěn)定。
MSLE的值越小,表示預(yù)測(cè)結(jié)果與真實(shí)值的差異越小,即模型的擬合程度越好。

3.1. 計(jì)算公式

\(\text{MSLE}(y, \hat{y}) = \frac{1}{n} \sum_{i=0}^{n - 1} (\log_e (1 + y_i) - \log_e (1 + \hat{y}_i) )^2.\)
其中,\(n\)是樣本數(shù)量,\(y_i\)是真實(shí)值,\(\hat{y_i}\)是預(yù)測(cè)值。

3.2. 使用示例

from sklearn.metrics import mean_squared_log_error
import numpy as np

n = 100
y_true = np.random.randint(1, 100, n)
y_pred = np.random.randint(1, 100, n)

mean_squared_log_error(y_true, y_pred)

mean_squared_log_error就是scikit-learn中用來計(jì)算MSLE的函數(shù)。

4. 平均絕對(duì)百分比誤差

平均絕對(duì)百分比誤差Mean Absolute Percentage Error,簡(jiǎn)稱MAPE),平均絕對(duì)誤差MAE)相比,MAPE將誤差轉(zhuǎn)化為百分比形式,這使得它在不同尺度的數(shù)據(jù)上具有更好的可比性。
MAPE越小,表示模型的預(yù)測(cè)結(jié)果與實(shí)際結(jié)果的差異較小,即模型的預(yù)測(cè)準(zhǔn)確性較高。

4.1. 計(jì)算公式

\(\text{MAPE}(y, \hat{y}) = \frac{1}{n} \sum_{i=0}^{n-1} \frac{{}\left| y_i - \hat{y}_i \right|}{\max(\epsilon, \left| y_i \right|)}\)
其中,\(n\)是樣本數(shù)量,\(y_i\)是真實(shí)值,\(\hat{y_i}\)是預(yù)測(cè)值。
\(\epsilon\)是一個(gè)任意小但嚴(yán)格為正的數(shù),以避免在\(y_i\)為零時(shí)出現(xiàn)未定義的結(jié)果。

4.2. 使用示例

from sklearn.metrics import mean_absolute_percentage_error
import numpy as np

n = 100
y_true = np.random.randint(1, 100, n)
y_pred = np.random.randint(1, 100, n)

mean_absolute_percentage_error(y_true, y_pred)

mean_absolute_percentage_error就是scikit-learn中用來計(jì)算MAPE的函數(shù)。

5. 絕對(duì)誤差中值

絕對(duì)誤差中值Median Absolute Error,簡(jiǎn)稱MedAE),它用于衡量預(yù)測(cè)模型對(duì)于數(shù)據(jù)集的精度。
平均誤差相比,中值對(duì)異常值更為穩(wěn)健,對(duì)于數(shù)據(jù)集中的異常值和離群點(diǎn),絕對(duì)誤差中值具有較強(qiáng)的抗性。
MedAE越小的模型,通常意味著它在大多數(shù)數(shù)據(jù)點(diǎn)上的預(yù)測(cè)更為準(zhǔn)確。

5.1. 計(jì)算公式

\(\text{MedAE}(y, \hat{y}) = \text{median}(\mid y_1 - \hat{y}_1 \mid, \ldots, \mid y_n - \hat{y}_n \mid).\)
其中,\(y_i\)是真實(shí)值,\(\hat{y_i}\)是預(yù)測(cè)值,\(median\)表示取中位數(shù)。

5.2. 使用示例

from sklearn.metrics import median_absolute_error
import numpy as np

n = 100
y_true = np.random.randint(1, 100, n)
y_pred = np.random.randint(1, 100, n)

median_absolute_error(y_true, y_pred)

median_absolute_error就是scikit-learn中用來計(jì)算MedAE的函數(shù)。

6. 最大誤差

最大誤差Max Error),它用于衡量模型預(yù)測(cè)值與真實(shí)值之間的最大差異,揭示模型在最壞情況下的表現(xiàn)。
如果模型在大多數(shù)情況下的預(yù)測(cè)誤差都很小,但最大誤差很大,那么這可能意味著模型對(duì)于某些特定情況的處理不夠好,需要進(jìn)一步優(yōu)化。

6.1. 計(jì)算公式

\(\text{Max Error}(y, \hat{y}) = \max(| y_i - \hat{y}_i |)\)
其中,\(y_i\)是真實(shí)值,\(\hat{y_i}\)是預(yù)測(cè)值,\(max\)表示取最大值。

6.2. 使用示例

from sklearn.metrics import max_error
import numpy as np

n = 100
y_true = np.random.randint(1, 100, n)
y_pred = np.random.randint(1, 100, n)

max_error(y_true, y_pred)

max_error就是scikit-learn中用來計(jì)算Max Error的函數(shù)。

7. 總結(jié)

本篇主要介紹了6種常用的誤差分析函數(shù),包括:

  • 平均絕對(duì)誤差
  • 均方誤差
  • 均方對(duì)數(shù)誤差
  • 平均絕對(duì)百分比誤差
  • 絕對(duì)誤差中值
  • 最大誤差

誤差的計(jì)算方式其實(shí)也不算不復(fù)雜,不過,掌握scikit-learn中封裝好的各種誤差計(jì)算函數(shù),
還是可以幫助我們?cè)谠u(píng)估回歸模型時(shí)節(jié)約不少時(shí)間。文章來源地址http://www.zghlxwxcb.cn/news/detail-815132.html

到了這里,關(guān)于【scikit-learn基礎(chǔ)】--『回歸模型評(píng)估』之誤差分析的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 機(jī)器學(xué)習(xí)算法實(shí)戰(zhàn)(scikit-learn版本)---線性回歸

    機(jī)器學(xué)習(xí)算法實(shí)戰(zhàn)(scikit-learn版本)---線性回歸

    目錄 文章目標(biāo): 1,導(dǎo)入庫? 2,導(dǎo)入數(shù)據(jù)集 3,縮放/歸一化訓(xùn)練數(shù)據(jù) 4,創(chuàng)建并擬合回歸模型 5,查看參數(shù) 6,預(yù)測(cè) 7,可視化? 有一個(gè)開源的、商業(yè)上可用的機(jī)器學(xué)習(xí)工具包,叫做[scikit-learn](https://scikit-learn.org/stable/index.html)。這個(gè)工具包包含了你在本課程中要使用的許多算法的實(shí)

    2024年02月05日
    瀏覽(16)
  • Python案例|使用Scikit-learn進(jìn)行房屋租金回歸分析

    Python案例|使用Scikit-learn進(jìn)行房屋租金回歸分析

    回歸分析是一種預(yù)測(cè)性的建模技術(shù),研究的是因變量(目標(biāo))和自變量(預(yù)測(cè)器)之間的關(guān)系?;貧w分析是建模和分析數(shù)據(jù)的重要工具。比如預(yù)測(cè)股票價(jià)格走勢(shì)、預(yù)測(cè)居民收入、預(yù)測(cè)微博互動(dòng)量等等。常用的有線性回歸、邏輯回歸、嶺回歸等。本文主要使用線性回歸。 本文使

    2024年02月15日
    瀏覽(26)
  • 機(jī)器學(xué)習(xí)-決策樹-回歸-CPU(中央處理單元)數(shù)據(jù)-python scikit-learn

    機(jī)器學(xué)習(xí)-決策樹-回歸-CPU(中央處理單元)數(shù)據(jù)-python scikit-learn

    決策樹是一種監(jiān)督機(jī)器學(xué)習(xí)算法,用于回歸和分類任務(wù)。樹是可以處理復(fù)雜數(shù)據(jù)集的強(qiáng)大算法。 決策樹特性: 不需要數(shù)值輸入數(shù)據(jù)進(jìn)行縮放。無論數(shù)值是多少,決策樹都不在乎。 不同于其他復(fù)雜的學(xué)習(xí)算法,決策樹的結(jié)果是可以解釋的,決策樹不是黑盒類型的模型。 雖然大

    2024年02月20日
    瀏覽(25)
  • 【scikit-learn基礎(chǔ)】--概述

    Scikit-learn 是一個(gè)基于 Python 的開源機(jī)器學(xué)習(xí)庫,它提供了大量的機(jī)器學(xué)習(xí)算法和工具,方便用戶進(jìn)行數(shù)據(jù)挖掘、分析和預(yù)測(cè)。 Scikit-learn 是基于另外兩個(gè)知名的庫 Scipy 和 Numpy 的, 關(guān)于 Scipy 和 Numpy 等庫,之前的系列文章中有介紹: Scipy 基礎(chǔ)系列 Numpy 基礎(chǔ)系列 自從 AlphaGo 再度

    2024年02月05日
    瀏覽(18)
  • 吳恩達(dá)機(jī)器學(xué)習(xí)-可選實(shí)驗(yàn):使用ScikitLearn進(jìn)行線性回歸(Linear Regression using Scikit-Learn)

    吳恩達(dá)機(jī)器學(xué)習(xí)-可選實(shí)驗(yàn):使用ScikitLearn進(jìn)行線性回歸(Linear Regression using Scikit-Learn)

    有一個(gè)開源的、商業(yè)上可用的機(jī)器學(xué)習(xí)工具包,叫做scikit-learn。這個(gè)工具包包含了你將在本課程中使用的許多算法的實(shí)現(xiàn)。 在本實(shí)驗(yàn)中,你將:利用scikit-learn實(shí)現(xiàn)使用梯度下降的線性回歸 您將使用scikit-learn中的函數(shù)以及matplotlib和NumPy。 np.set_printoptions(precision=2) 的作用是告訴

    2024年03月14日
    瀏覽(27)
  • 【scikit-learn基礎(chǔ)】--『預(yù)處理』之 正則化

    數(shù)據(jù)的 預(yù)處理 是數(shù)據(jù)分析,或者機(jī)器學(xué)習(xí)訓(xùn)練前的重要步驟。 通過數(shù)據(jù)預(yù)處理,可以 提高數(shù)據(jù)質(zhì)量 ,處理數(shù)據(jù)的缺失值、異常值和重復(fù)值等問題,增加數(shù)據(jù)的準(zhǔn)確性和可靠性 整合不同數(shù)據(jù) ,數(shù)據(jù)的來源和結(jié)構(gòu)可能多種多樣,分析和訓(xùn)練前要整合成一個(gè)數(shù)據(jù)集 提高數(shù)據(jù)性

    2024年02月04日
    瀏覽(19)
  • 【scikit-learn基礎(chǔ)】--『數(shù)據(jù)加載』之玩具數(shù)據(jù)集

    【scikit-learn基礎(chǔ)】--『數(shù)據(jù)加載』之玩具數(shù)據(jù)集

    機(jī)器學(xué)習(xí)的第一步是準(zhǔn)備數(shù)據(jù),好的數(shù)據(jù)能幫助我們加深對(duì)機(jī)器學(xué)習(xí)算法的理解。 不管是在學(xué)習(xí)還是實(shí)際工作中, 準(zhǔn)備數(shù)據(jù) 永遠(yuǎn)是一個(gè)枯燥乏味的步驟。 scikit-learn 庫顯然看到了這個(gè)痛點(diǎn),才在它的 數(shù)據(jù)加載 子模塊中為我們準(zhǔn)備了直接可用的數(shù)據(jù)集。 在它的 數(shù)據(jù)加載 子模

    2024年02月05日
    瀏覽(29)
  • 【scikit-learn基礎(chǔ)】--『數(shù)據(jù)加載』之外部數(shù)據(jù)集

    【scikit-learn基礎(chǔ)】--『數(shù)據(jù)加載』之外部數(shù)據(jù)集

    這是 scikit-learn 數(shù)據(jù)加載系列的最后一篇,本篇介紹如何加載 外部的數(shù)據(jù)集 。 外部數(shù)據(jù)集 不像之前介紹的幾種類型的數(shù)據(jù)集那樣,針對(duì)每種數(shù)據(jù)提供對(duì)應(yīng)的接口,每個(gè)接口加載的數(shù)據(jù)都是固定的。 而外部數(shù)據(jù)集加載之后,數(shù)據(jù)的字段和類型是不確定的。 簡(jiǎn)單來說,我們?cè)?/p>

    2024年02月05日
    瀏覽(19)
  • 【scikit-learn基礎(chǔ)】--『數(shù)據(jù)加載』之真實(shí)數(shù)據(jù)集

    上一篇介紹了 scikit-learn 中的幾個(gè)玩具數(shù)據(jù)集,本篇介紹 scikit-learn 提供的一些真實(shí)的數(shù)據(jù)集。 玩具數(shù)據(jù)集:scikit-learn 基礎(chǔ)(01)--『數(shù)據(jù)加載』之玩具數(shù)據(jù)集 與玩具數(shù)據(jù)集不同,真實(shí)的數(shù)據(jù)集的數(shù)據(jù)不僅數(shù)據(jù)特征多,而且數(shù)據(jù)量也比較大, 所以沒有直接包含在 scikit-learn 庫中。

    2024年02月05日
    瀏覽(25)
  • 【scikit-learn基礎(chǔ)】--『預(yù)處理』之 數(shù)據(jù)縮放

    數(shù)據(jù)的 預(yù)處理 是數(shù)據(jù)分析,或者機(jī)器學(xué)習(xí)訓(xùn)練前的重要步驟。 通過數(shù)據(jù)預(yù)處理,可以 提高數(shù)據(jù)質(zhì)量 ,處理數(shù)據(jù)的缺失值、異常值和重復(fù)值等問題,增加數(shù)據(jù)的準(zhǔn)確性和可靠性 整合不同數(shù)據(jù) ,數(shù)據(jù)的來源和結(jié)構(gòu)可能多種多樣,分析和訓(xùn)練前要整合成一個(gè)數(shù)據(jù)集 提高數(shù)據(jù)性

    2024年02月04日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包