国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【機(jī)器學(xué)習(xí)】分類器性能度量——混淆矩陣及sklearn實(shí)現(xiàn)

這篇具有很好參考價(jià)值的文章主要介紹了【機(jī)器學(xué)習(xí)】分類器性能度量——混淆矩陣及sklearn實(shí)現(xiàn)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

記錄一下混淆矩陣的學(xué)習(xí)心得,不寫下來老是容易搞混..

I. 理論解析

機(jī)器學(xué)習(xí)中,考量二分類問題的分類器性能時(shí),可以將樣本的實(shí)際類別與分類器預(yù)測(cè)類別,劃分為如下 TN, FP, FN, TP 四種結(jié)果,組合起來就是大名鼎鼎的 confusion matrix 混淆矩陣。其中:

True,F(xiàn)alse 表示預(yù)測(cè)結(jié)果與實(shí)際分類是否一致:一致為True,不一致為False;

Positive,Negative 表示預(yù)測(cè)結(jié)果的類別:通常class 1 為Positive,class 0 為Negative

混淆矩陣 預(yù)測(cè)值
0(-) 1(+)
實(shí)際值

0(-)

True Negative (TN) False Positive (FP)
1(+) False Negative (FN) True Positive (TP)

畫出混淆矩陣后,就可以根據(jù)矩陣,計(jì)算相應(yīng)的度量指標(biāo)了,主要有準(zhǔn)確率(Accuracy),召回率(Recall),精確率(Precision)三大金剛。

PS: 看了太多不同的叫法,本來就容易混淆,叫法一多更蒙圈了,感覺還是叫英文直觀一點(diǎn)

1. 準(zhǔn)確率 (Accuracy)

所有預(yù)測(cè)正確的樣本,占總樣本的比例。

【機(jī)器學(xué)習(xí)】分類器性能度量——混淆矩陣及sklearn實(shí)現(xiàn)

準(zhǔn)確率關(guān)注整體(正樣本 + 負(fù)樣本)的預(yù)測(cè)準(zhǔn)確程度。但在樣本不均衡時(shí),準(zhǔn)確率有很大的局限性,此時(shí)高accuracy無太大意義。例如在實(shí)際生活中,大多數(shù)信用卡客戶都不會(huì)違約(class 0),違約的只是少數(shù)(class 1)。用分類器預(yù)測(cè)信用卡客戶是否會(huì)違約時(shí),即便把所有樣本都預(yù)測(cè)為不違約(class 0)也可以獲得很高的準(zhǔn)確率,但這對(duì)于風(fēng)控模型來說,毫無參考價(jià)值。

2. 召回率 (Recall)

針對(duì)原樣本而言,在所有實(shí)際為正(class 1)的樣本中,被預(yù)測(cè)為正的樣本比例。

【機(jī)器學(xué)習(xí)】分類器性能度量——混淆矩陣及sklearn實(shí)現(xiàn)

?又稱為sensitivity rate,true positive rate(TPR),查全率。這個(gè)指標(biāo)關(guān)注更多的是查全,不要有漏檢的情況,寧可錯(cuò)殺一千,不能放過一個(gè)

3. 精確率 (Precision)

針對(duì)預(yù)測(cè)樣本而言,在所有被預(yù)測(cè)為正(class 1)的樣本中,實(shí)際為正(class 1)的樣本比例。

【機(jī)器學(xué)習(xí)】分類器性能度量——混淆矩陣及sklearn實(shí)現(xiàn)

又稱為 positive predictive rate,查準(zhǔn)率。更關(guān)注正樣本結(jié)果中的預(yù)測(cè)準(zhǔn)確程度,寧愿漏檢,也不愿意預(yù)測(cè)錯(cuò)誤。

召回率 與 精確率 Trade-off

召回率(查全率)與精確率(查準(zhǔn)率)是一對(duì)矛盾的變量,二者相互制約,此消彼長(zhǎng)。

以下表為例,假設(shè) t=1 代表客戶違約,用A,B 兩個(gè)分類器進(jìn)行預(yù)測(cè)

t actual 0 0 0 0 0 1 0 1 0 1
t predicted-A 0 1 1 1 1 1 1 1 1 1
t predicted-B 0 0 0 0 0 0 0 1 0 0

模型 A: 寧可錯(cuò)殺,不能放過,即便沒有很確定,也判斷該客戶會(huì)違約。此時(shí)分類器高召回率,低精確率。

recall = TP / 實(shí)際為正 = 3/3 = 100%,

precision = TP / 預(yù)測(cè)為正 = 3/9 = 33.33%

模型B: 寧可漏過,不能錯(cuò)判,只在非常確定的情況下,才判斷客戶違約。此時(shí)分類器低召回率,高精確率。

recall = 1/3 = 33.33%,

precision = 1/1 = 100%

4. F-Score??

Fβ-score 是綜合考慮召回率與精確率的一個(gè)加權(quán)調(diào)和平均指標(biāo),平衡召回率、精確率。F-score分?jǐn)?shù)越高,說明模型質(zhì)量越好。具體公式如下:

?【機(jī)器學(xué)習(xí)】分類器性能度量——混淆矩陣及sklearn實(shí)現(xiàn)

其中,β代表對(duì)召回率、精確率的不同重視程度:

β=1,二者一樣重要,此時(shí)即為F1-Score;

β<1,精確率更為重要。比如在經(jīng)濟(jì)整體向好時(shí),希望準(zhǔn)確判斷違約客戶,以放出更多的貸款,提升利息收益;

β>1,召回率更為重要。經(jīng)濟(jì)狀況不好時(shí),更希望盡可能少漏掉違約客戶,即更多的找出違約客戶,避免本金損失。

II. python實(shí)現(xiàn)

實(shí)用角度出發(fā),直接調(diào)用sklearn包,查看分類結(jié)果

from sklearn.metrics import classification_report
print(classification_report(y_test, pred_log, digits=3)) 

# y_test是劃分出的測(cè)試集
# pred_log是依據(jù)分類器預(yù)測(cè)出的結(jié)果
# 通常保留3位小數(shù)便于比較

輸出結(jié)果如下:

【機(jī)器學(xué)習(xí)】分類器性能度量——混淆矩陣及sklearn實(shí)現(xiàn)文章來源地址http://www.zghlxwxcb.cn/news/detail-499827.html

到了這里,關(guān)于【機(jī)器學(xué)習(xí)】分類器性能度量——混淆矩陣及sklearn實(shí)現(xiàn)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【機(jī)器學(xué)習(xí)】二分類問題中的混淆矩陣、準(zhǔn)確率、召回率等 (Python代碼實(shí)現(xiàn))

    【機(jī)器學(xué)習(xí)】二分類問題中的混淆矩陣、準(zhǔn)確率、召回率等 (Python代碼實(shí)現(xiàn))

    混淆矩陣(Confusion Matrix):將分類問題按照真實(shí)情況與判別情況兩個(gè)維度進(jìn)行歸類的一個(gè)矩陣,如在二分類問題中就是一個(gè)2*2的矩陣: TP(True Positive):表示實(shí)際為真預(yù)測(cè)為真 FP(False Positive):表示實(shí)際為假預(yù)測(cè)為真 (誤報(bào)) TN(True Negative):表示實(shí)際為假預(yù)測(cè)為假 FN(False N

    2024年01月24日
    瀏覽(62)
  • 機(jī)器學(xué)習(xí)模型優(yōu)劣評(píng)價(jià)指標(biāo):混淆矩陣,P-R曲線與平均精確度(附代碼實(shí)現(xiàn))

    機(jī)器學(xué)習(xí)模型優(yōu)劣評(píng)價(jià)指標(biāo):混淆矩陣,P-R曲線與平均精確度(附代碼實(shí)現(xiàn))

    文章參考:Mean Average Precision (mAP) Explained | Paperspace Blog 目錄 一. Confusion Metrics混淆矩陣 二.?Precision-Recall Curve, Average precision P-R曲線,平均精確度 三. 舉例與代碼實(shí)現(xiàn) (1)從預(yù)測(cè)分?jǐn)?shù)到類別標(biāo)簽(From Prediction Score to Class Label) (2)精確度-召回度曲線(Precision-Recall Curve) (3)平均

    2024年02月05日
    瀏覽(19)
  • 機(jī)器學(xué)習(xí) | 混淆矩陣和ROC曲線

    機(jī)器學(xué)習(xí) | 混淆矩陣和ROC曲線

    (1)對(duì)于二分類 TP(True Positive):將正類預(yù)測(cè)為正類數(shù),真實(shí)為0,預(yù)測(cè)也為0 FN(False Negative):將正類預(yù)測(cè)為負(fù)類數(shù),真實(shí)為0,預(yù)測(cè)為1 FP(False Positive):將負(fù)類預(yù)測(cè)為正類數(shù), 真實(shí)為1,預(yù)測(cè)為0 TN(True Negative):將負(fù)類預(yù)測(cè)為負(fù)類數(shù),真實(shí)為1,預(yù)測(cè)也為1 則混淆矩陣如下: (2)對(duì)

    2024年01月21日
    瀏覽(28)
  • python機(jī)器學(xué)習(xí)(三)特征預(yù)處理、鳶尾花案例--分類、線性回歸、代價(jià)函數(shù)、梯度下降法、使用numpy、sklearn實(shí)現(xiàn)一元線性回歸

    python機(jī)器學(xué)習(xí)(三)特征預(yù)處理、鳶尾花案例--分類、線性回歸、代價(jià)函數(shù)、梯度下降法、使用numpy、sklearn實(shí)現(xiàn)一元線性回歸

    數(shù)據(jù)預(yù)處理的過程。數(shù)據(jù)存在不同的量綱、數(shù)據(jù)中存在離群值,需要穩(wěn)定的轉(zhuǎn)換數(shù)據(jù),處理好的數(shù)據(jù)才能更好的去訓(xùn)練模型,減少誤差的出現(xiàn)。 標(biāo)準(zhǔn)化 數(shù)據(jù)集的標(biāo)準(zhǔn)化對(duì)scikit-learn中實(shí)現(xiàn)的大多數(shù)機(jī)器學(xué)習(xí)算法來說是常見的要求,很多案例都需要標(biāo)準(zhǔn)化。如果個(gè)別特征或多或

    2024年02月16日
    瀏覽(24)
  • 【機(jī)器學(xué)習(xí)sklearn】第二節(jié):線性回歸和線性分類

    【機(jī)器學(xué)習(xí)sklearn】第二節(jié):線性回歸和線性分類

    作者 ????♂?:讓機(jī)器理解語(yǔ)言か ? 專欄 ??:機(jī)器學(xué)習(xí)sklearn 描述 ??:本專欄主要分享博主學(xué)習(xí)機(jī)器學(xué)習(xí)的筆記和一些心得體會(huì)。 寄語(yǔ) ??:??沒有白走的路,每一步都算數(shù)!??? ????????監(jiān)督學(xué)習(xí)(英語(yǔ):Supervised learning)是機(jī)器學(xué)習(xí)中最為常見、應(yīng)用最為廣泛的

    2023年04月26日
    瀏覽(21)
  • 【Python機(jī)器學(xué)習(xí)】sklearn.datasets分類任務(wù)數(shù)據(jù)集

    如何選擇合適的數(shù)據(jù)集進(jìn)行機(jī)器學(xué)習(xí)的分類任務(wù)? 選擇合適的數(shù)據(jù)集是進(jìn)行任何機(jī)器學(xué)習(xí)項(xiàng)目的第一步,特別是分類任務(wù)。數(shù)據(jù)集是機(jī)器學(xué)習(xí)任務(wù)成功的基礎(chǔ)。沒有數(shù)據(jù),最先進(jìn)的算法也無從談起。 本文將專注于 sklearn.datasets 模塊中用于分類任務(wù)的數(shù)據(jù)集。這些數(shù)據(jù)集覆蓋

    2024年02月07日
    瀏覽(28)
  • 一文帶你搞懂sklearn.metrics混淆矩陣

    一般的二分類任務(wù)需要的評(píng)價(jià)指標(biāo)有4個(gè) accuracy precision recall f1-score 四個(gè)指標(biāo)的計(jì)算公式如下 ? 計(jì)算這些指標(biāo)要涉及到下面這四個(gè)概念,而它們又構(gòu)成了混淆矩陣 TP (True Positive) FP (False Positive) TN (True Negative) FN (False Negative) 混淆矩陣 預(yù)測(cè)值 0 1 實(shí)際值 0 TN FP 1 FN TP 這里我給出的

    2024年02月06日
    瀏覽(23)
  • python機(jī)器學(xué)習(xí)(六)決策樹(上) 構(gòu)造樹、信息熵的分類和度量、信息增益、CART算法、剪枝

    python機(jī)器學(xué)習(xí)(六)決策樹(上) 構(gòu)造樹、信息熵的分類和度量、信息增益、CART算法、剪枝

    模擬相親的過程,通過相親決策圖,男的去相親,會(huì)先選擇性別為女的,然后依次根據(jù)年齡、長(zhǎng)相、收入、職業(yè)等信息對(duì)相親的另一方有所了解。 通過決策圖可以發(fā)現(xiàn),生活中面臨各種各樣的選擇,基于我們的經(jīng)驗(yàn)和自身需求進(jìn)行一些篩選,把判斷背后的邏輯整理成結(jié)構(gòu)圖,

    2024年02月14日
    瀏覽(22)
  • 機(jī)器學(xué)習(xí)基礎(chǔ)之《分類算法(1)—sklearn轉(zhuǎn)換器和估計(jì)器》

    機(jī)器學(xué)習(xí)基礎(chǔ)之《分類算法(1)—sklearn轉(zhuǎn)換器和估計(jì)器》

    一、轉(zhuǎn)換器 1、什么是轉(zhuǎn)換器 之前做特征工程的步驟: (1)第一步就是實(shí)例化了一個(gè)轉(zhuǎn)換器類(Transformer) (2)第二步就是調(diào)用fit_transform,進(jìn)行數(shù)據(jù)的轉(zhuǎn)換 2、我們把特征工程的接口稱之為轉(zhuǎn)換器,其中轉(zhuǎn)換器調(diào)用有這么幾種形式 fit_transform() fit() transform() 3、例子 我們以標(biāo)

    2024年02月12日
    瀏覽(21)
  • 【Pytorch】進(jìn)階學(xué)習(xí):深入解析 sklearn.metrics 中的 classification_report 函數(shù)---分類性能評(píng)估的利器

    【Pytorch】進(jìn)階學(xué)習(xí):深入解析 sklearn.metrics 中的 classification_report 函數(shù)---分類性能評(píng)估的利器

    【Pytorch】進(jìn)階學(xué)習(xí):深入解析 sklearn.metrics 中的 classification_report 函數(shù)—分類性能評(píng)估的利器 ?? 個(gè)人主頁(yè):高斯小哥 ?? 高質(zhì)量專欄:Matplotlib之旅:零基礎(chǔ)精通數(shù)據(jù)可視化、Python基礎(chǔ)【高質(zhì)量合集】、PyTorch零基礎(chǔ)入門教程?? 希望得到您的訂閱和支持~ ?? 創(chuàng)作高質(zhì)量博文

    2024年03月11日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包