国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

python 中,sklearn包下的f1_score、precision、recall使用方法,Accuracy、Precision、Recall和F1-score公式,TP、FP、TN、FN的概念

這篇具有很好參考價值的文章主要介紹了python 中,sklearn包下的f1_score、precision、recall使用方法,Accuracy、Precision、Recall和F1-score公式,TP、FP、TN、FN的概念。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

1.sklearn.metrics.f1_score

2.sklearn.metrics.precision_score

3.sklearn.metrics.recall_score

4.Accuracy,、Precision、?Recall和F1-score公式???????

5.TP、FP、TN、FN的概念


sklearn.metrics.f1_score官網(wǎng)鏈接sklearn.metrics.f1_score — scikit-learn 1.0.2 documentation

sklearn.metrics.f1_score(y_true,?y_pred,?*,?labels=None,?pos_label=1,?
average='binary',?sample_weight=None,?zero_division='warn')

重要參數(shù)說明:

y_true:一維數(shù)組,或標簽指示數(shù)組/稀疏矩陣 (真實值)

y_pred:一維數(shù)組,或標簽指示數(shù)組/稀疏矩陣 (預測值)

pos_label:str or int, default=1

? ? ? ? ? ? ? ? ? 報告是否average='binary'且數(shù)據(jù)為binary的類。如果數(shù)據(jù)是多類或多標簽的,這將? ? ? ? ? ? ? ? ? ? ? ? ? 被忽略;設(shè)置labels=[pos_label]和average != 'binary'將只報告該標簽的分數(shù)。

average:{‘micro’, ‘macro’, ‘samples’,’weighted’, ‘binary’} or None, default=’binary’

????????????????多類/多標簽目標時需要此參數(shù)。如果為None,則返回每個類的分數(shù)。否則,這決定了對數(shù)據(jù)進行平均的類型:

????????“binary”: 只報告由pos_label指定的類的結(jié)果。這只適用于目標(y_{true,pred})是二進制的情況。

????????“micro”: 通過計算總真陽性、假陰性和假陽性來全局計算指標。

????????“macro”: 計算每個標簽的度量,并找到它們的未加權(quán)平均值。這還沒有考慮到標簽的不平衡。

? ? ? ? ?“weighted”:? 計算每個標簽的指標,并根據(jù)支持找到它們的平均權(quán)重(每個標簽的真實實例數(shù))。這改變了“宏觀”的標簽不平衡;它會導致一個不介于準確率和召回率之間的f值。

? ? ? ? ?“samples”:? 為每個實例計算指標,并找到它們的平均值(僅對與accuracy_score不同的多標簽分類有意義)。

sample_weight:array-like of shape (n_samples,), default=None

? ? ? ? ?? 樣本的權(quán)重

zero_division:“warn”, 0 or 1, default=”warn”

????????????????設(shè)置除法為零時返回的值,即所有預測和標簽為負數(shù)時返回。如果設(shè)置為" warn ",這將充當0,但也會引發(fā)警告。

返回值:

f1_score:float or array of float, shape = [n_unique_labels]
         二分類中正類的F1分,
         或多類任務(wù)中,每個類的F1分的加權(quán)平均。

示例:

from sklearn.metrics import f1_score

y_true = [0, 1, 1, 1, 2, 2]
y_pred = [0, 1, 1, 2, 1, 2]

macro_f1 = f1_score(y_true, y_pred, average='macro')

micro_f1 = f1_score(y_true, y_pred, average='micro')

weighted_f1= f1_score(y_true, y_pred, average='weighted')

None_f1 = f1_score(y_true, y_pred, average=None)

print('macro_f1:',macro_f1,'\nmicro_f1:',micro_f1,'\nweighted_f1:',
      weighted_f1,'\nNone_f1:',None_f1)

輸出結(jié)果:

macro_f1: 0.7222222222222222
micro_f1: 0.6666666666666666
weighted_f1: 0.6666666666666666
None_f1: [1.   0.66666667   0.5  ]

sklearn.metrics.precision_score官網(wǎng)鏈接

sklearn.metrics.precision_score — scikit-learn 1.1.1 documentation

sklearn.metrics.precision_score(y_true, y_pred, *, labels=None, pos_label=1, 
average='binary', sample_weight=None, zero_division='warn')

重要參數(shù)意義與f1-score類似

代碼實例:

>>> from sklearn.metrics import precision_score
>>> y_true = [0, 1, 2, 0, 1, 2]
>>> y_pred = [0, 2, 1, 0, 0, 1]
>>> precision_score(y_true, y_pred, average='macro')
0.22...
>>> precision_score(y_true, y_pred, average='micro')
0.33...
>>> precision_score(y_true, y_pred, average='weighted')
0.22...
>>> precision_score(y_true, y_pred, average=None)
array([0.66..., 0.        , 0.        ])
>>> y_pred = [0, 0, 0, 0, 0, 0]
>>> precision_score(y_true, y_pred, average=None)
array([0.33..., 0.        , 0.        ])
>>> precision_score(y_true, y_pred, average=None, zero_division=1)
array([0.33..., 1.        , 1.        ])
>>> # multilabel classification
>>> y_true = [[0, 0, 0], [1, 1, 1], [0, 1, 1]]
>>> y_pred = [[0, 0, 0], [1, 1, 1], [1, 1, 0]]
>>> precision_score(y_true, y_pred, average=None)
array([0.5, 1. , 1. ])

sklearn.metrics.recall_score官網(wǎng)鏈接?

sklearn.metrics.recall_score — scikit-learn 1.1.1 documentation

sklearn.metrics.recall_score(y_true, y_pred, *, labels=None, pos_label=1, 
average='binary',sample_weight=None, zero_division='warn')

?重要參數(shù)意義與f1-score類似

代碼實例:

>>> from sklearn.metrics import recall_score
>>> y_true = [0, 1, 2, 0, 1, 2]
>>> y_pred = [0, 2, 1, 0, 0, 1]
>>> recall_score(y_true, y_pred, average='macro')
0.33...
>>> recall_score(y_true, y_pred, average='micro')
0.33...
>>> recall_score(y_true, y_pred, average='weighted')
0.33...
>>> recall_score(y_true, y_pred, average=None)
array([1., 0., 0.])
>>> y_true = [0, 0, 0, 0, 0, 0]
>>> recall_score(y_true, y_pred, average=None)
array([0.5, 0. , 0. ])
>>> recall_score(y_true, y_pred, average=None, zero_division=1)
array([0.5, 1. , 1. ])
>>> # multilabel classification
>>> y_true = [[0, 0, 0], [1, 1, 1], [0, 1, 1]]
>>> y_pred = [[0, 0, 0], [1, 1, 1], [1, 1, 0]]
>>> recall_score(y_true, y_pred, average=None)
array([1. , 1. , 0.5])

Accuracy、Precision、Recall和F1-score公式:

python 中,sklearn包下的f1_score、precision、recall使用方法,Accuracy、Precision、Recall和F1-score公式,TP、FP、TN、FN的概念?

python 中,sklearn包下的f1_score、precision、recall使用方法,Accuracy、Precision、Recall和F1-score公式,TP、FP、TN、FN的概念?

python 中,sklearn包下的f1_score、precision、recall使用方法,Accuracy、Precision、Recall和F1-score公式,TP、FP、TN、FN的概念?

python 中,sklearn包下的f1_score、precision、recall使用方法,Accuracy、Precision、Recall和F1-score公式,TP、FP、TN、FN的概念?

TP、FP、TN、FN的概念:

TP(True?Positive):預測為正,預測結(jié)果是正確的

FP(False?Positive):預測為正,預測結(jié)果是錯誤的

TN(True?Negative):預測為負,預測結(jié)果是正確的

FN(False?Negative):預測為負,預測結(jié)果是錯誤的

python 中,sklearn包下的f1_score、precision、recall使用方法,Accuracy、Precision、Recall和F1-score公式,TP、FP、TN、FN的概念?文章來源地址http://www.zghlxwxcb.cn/news/detail-424100.html

到了這里,關(guān)于python 中,sklearn包下的f1_score、precision、recall使用方法,Accuracy、Precision、Recall和F1-score公式,TP、FP、TN、FN的概念的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • YOLO 模型的評估指標——IOU、Precision、Recall、F1-score、mAP

    YOLO 模型的評估指標——IOU、Precision、Recall、F1-score、mAP

    YOLO是最先進的目標檢測模型之一。目標檢測問題相比分類問題要更加復雜,因為目標檢測不僅要把類別預測正確,還要預測出這個類別具體在哪個位置。 我將目標識別的評估指標總結(jié)為兩部分,一部分為預測框的預測指標,另一部分為分類預測指標。 預測框的準確率用IOU來

    2024年02月04日
    瀏覽(42)
  • 【計算機視覺 | 目標檢測】術(shù)語理解3:Precision、Recall、F1-score、mAP、IoU 和 AP

    在圖像目標檢測中,常用的評估指標包括以下幾項: 精確率(Precision):也稱為查準率,表示被分類為正類別的樣本中真正為正類別的比例。計算公式為:Precision = TP / (TP + FP),其中TP是真正例(模型正確預測為正類別的樣本數(shù)),F(xiàn)P是假正例(模型錯誤預測為正類別的樣本數(shù)

    2024年02月13日
    瀏覽(28)
  • 分類問題的評價指標(Precision、Recall、Accuracy、F1-Score、Micro-F1、Macro-F1)以及混淆矩陣、ROC曲線

    分類問題的評價指標(Precision、Recall、Accuracy、F1-Score、Micro-F1、Macro-F1)以及混淆矩陣、ROC曲線

    真陽性:預測為正,實際為正。把正樣本 成功 預測為正。? TP ——True Positive 假陽性:預測為正,實際為負。把負樣本 錯誤 預測為正。? FP ——False Positive ?——誤報 真陰性:預測為負、實際為負。把負樣本 成功 預測為負。? TN ——True Negative 假陰性:預測與負、實際

    2024年01月19日
    瀏覽(20)
  • 基于sklearn計算precision、recall等分類指標

    基于sklearn計算precision、recall等分類指標

    在前面的文章中,我們已經(jīng)介紹了分類指標Precision,Recall,F(xiàn)1-Score的定義和計算公式:詳解分類指標Precision,Recall,F(xiàn)1-Score 我們可以知道, 精度(precision)、查全率(recall)、F1的計算,是針對于二分類器來定義的。他們的計算,只與y_true和y_pred有關(guān),要求y_true和y_pred中只含有0和

    2024年02月16日
    瀏覽(20)
  • 在分類任務(wù)中準確率(accuracy)、精確率(precision)、召回率(recall)和 F1 分數(shù)是常用的性能指標,如何在python中使用呢?

    在分類任務(wù)中準確率(accuracy)、精確率(precision)、召回率(recall)和 F1 分數(shù)是常用的性能指標,如何在python中使用呢?

    在機器學習和數(shù)據(jù)科學中,準確率(accuracy)、精確率(precision)、召回率(recall)和 F1 分數(shù)是常用的性能指標,用于評估分類模型的性能。 準確率是模型預測正確的樣本數(shù)占總樣本數(shù)的比例。 精確率是指在預測為正的樣本中,實際為正的比例。它關(guān)注的是預測為正的樣本

    2024年01月19日
    瀏覽(115)
  • NLP NER 任務(wù)中的精確度(Precision)、召回率(Recall)和F1值

    在自然語言處理(NLP)中的命名實體識別(NER)任務(wù)中,精確度(Precision)、召回率(Recall)和F1值是評估模型性能的關(guān)鍵指標。這些指標幫助我們了解模型在識別正確實體方面的效率和準確性。 精確度(Precision) : 精確度是指模型正確識別的命名實體數(shù)與模型總共識別出

    2024年01月23日
    瀏覽(37)
  • 自我理解:精度(precision)和召回(recall)

    精度 是用于評估分類模型的一個重要指標。它反映了模型預測為正例的樣本中,實際真正為正例樣本的比例。 【注】正例樣本指在二分類問題中,被標注為正類的樣本。 例如:在垃圾郵件分類任務(wù)中,正例樣本就是真實的垃圾郵件。 精度的計算公式 精度 = 正確預測為正例

    2024年02月12日
    瀏覽(16)
  • 機器學習系列(二)——評價指標Precision和Recall

    Precision 和 Recall 是常考的知識點,就其區(qū)別做一個詳細總結(jié) 1. Precision? 中文翻譯 “精確率”,“查準率”。 “查準率”這個名字更能反應其特性,就是 該指標關(guān)注準確性。? 計算公式如下: 這里TP,F(xiàn)P的概念來自統(tǒng)計學中的混淆矩陣,TP指 “預測為正(Positive), 預測正確(

    2024年02月16日
    瀏覽(24)
  • 目標檢測評估指標mAP:從Precision,Recall,到AP50-95

    目標檢測評估指標mAP:從Precision,Recall,到AP50-95

    True Positive 滿足以下三個條件被看做是TP ? ? ? ? 1. 置信度大于閾值(類別有閾值,IoU判斷這個bouding box是否合適也有閾值) ? ? ? ? 2. 預測類型與標簽類型相匹配(類別預測對了) ? ? ? ? 3. 預測的Bouding Box和Ground Truth的IoU大于閾值(框 打?qū)α耍?當存在多個滿足條件的預

    2024年02月09日
    瀏覽(54)
  • YOLOv8性能評估指標->mAP、Precision、Recall、FPS、IoU

    YOLOv8性能評估指標->mAP、Precision、Recall、FPS、IoU

    開始講解之前推薦一下我的專欄,本專欄的內(nèi)容支持(分類、檢測、分割、追蹤、關(guān)鍵點檢測),專欄目前為限時折扣, 歡迎大家訂閱本專欄,本專欄每周更新3-5篇最新機制,更有包含我所有改進的文件和交流群提供給大家。 ? 專欄目錄: YOLOv8改進有效系列目錄 | 包含卷積、主

    2024年02月03日
    瀏覽(22)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包