自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

一文讀懂分類模型評估指標(biāo)

人工智能
模型評估是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)中非常重要的一部分,用于衡量模型的性能和效果。本文將逐步分解混淆矩陣,準(zhǔn)確性,精度,召回率和F1分?jǐn)?shù)。

模型評估是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)中非常重要的一部分,用于衡量模型的性能和效果。本文將逐步分解混淆矩陣,準(zhǔn)確性,精度,召回率和F1分?jǐn)?shù)。

混淆矩陣

混淆矩陣是在分類問題中用于評估模型性能的表格,它展示了模型對樣本的分類情況?;煜仃嚨男斜硎緦嶋H類別,列表示預(yù)測類別。對于二分類問題,混淆矩陣的結(jié)構(gòu)如下:

  • True Positive (TP): 實際為正例,模型預(yù)測為正例的樣本數(shù),模型正確識別正面實例的能力。更高的TP通常是可取的
  • False Negative (FN): 實際為正例,模型預(yù)測為負(fù)例的樣本數(shù),根據(jù)應(yīng)用程序的不同,這可能是關(guān)鍵的(例如,未能檢測到安全威脅)。
  • False Positive (FP): 實際為負(fù)例,模型預(yù)測為正例的樣本數(shù),強(qiáng)調(diào)模型在不應(yīng)該預(yù)測為正的情況下預(yù)測為正的情況,這可能會產(chǎn)生取決于應(yīng)用的后果(例如,醫(yī)療診斷中不必要的治療)
  • True Negative (TN): 實際為負(fù)例,模型預(yù)測為負(fù)例的樣本數(shù),反映模型正確識別否定實例的能力。通常需要更高的TN

初學(xué)者看起來很亂,其實這樣理解就非常簡單了,后面的Negative/Positive 為模型預(yù)測值,前面的True/False 為模型預(yù)測是否正確,比如True Negative,代表,模型預(yù)測是Negative并且與實際的值對比是True 也就是預(yù)測正確的,這樣就好理解了。以下是一個簡單的混淆矩陣:

from sklearn.metrics import confusion_matrix
 import seaborn as sns
 import matplotlib.pyplot as plt
 # Example predictions and true labels
 y_true = [1, 0, 1, 1, 0, 1, 0, 0, 1, 0]
 y_pred = [1, 0, 1, 0, 0, 1, 0, 1, 1, 1]
 # Create a confusion matrix
 cm = confusion_matrix(y_true, y_pred)
 # Visualize the blueprint
 sns.heatmap(cm, annot=True, fmt="d", cmap="Blues", xticklabels=["Predicted 0", "Predicted 1"], yticklabels=["Actual 0", "Actual 1"])
 plt.xlabel("Predicted")
 plt.ylabel("Actual")
 plt.show()

當(dāng)你想強(qiáng)調(diào)正確的預(yù)測和整體準(zhǔn)確性時,使用TP和TN。當(dāng)你想了解你的模型所犯的錯誤類型時,使用FP和FN。例如,在誤報成本很高的應(yīng)用程序中,最小化誤報可能是至關(guān)重要的。

比如一個垃圾郵件分類器?;煜仃嚳梢岳斫庹_識別了多少垃圾郵件,錯誤標(biāo)記了多少非垃圾郵件。

基于混淆矩陣,可以計算許多其他評估指標(biāo),例如準(zhǔn)確度、精確度、召回率和F1分?jǐn)?shù)。

Accuracy

根據(jù)我們上面的總結(jié),計算的是能夠正確預(yù)測的的比例,分子是TP和TN都是True,也就是模型預(yù)測對了的總數(shù)

Precision

可以看到公式,他計算的是Positive 的占比,也就是說數(shù)據(jù)中所有Positive的,正確預(yù)測對了有多少,所以精確度Precision又被稱作查準(zhǔn)率

在誤報有重大后果或成本的情況下,這是至關(guān)重要的。例如在醫(yī)學(xué)診斷模型中,精確度確保只對真正需要治療的人進(jìn)行治療。

Recall

召回率,也稱為靈敏度或真陽性率,關(guān)注模型捕獲所有正類實例的能力。

從公式中可以看到,它主要是計算模型捕獲了多少實際的Positive,也就是Positive的占比,所以Recall又被稱作查全率

F1 Score

F1分?jǐn)?shù)是一個在精確度和召回率之間取得平衡的指標(biāo),為模型的性能提供了一個全面的衡量標(biāo)準(zhǔn)。它是查準(zhǔn)率和查全率的調(diào)和平均值,計算公式為:

F1分?jǐn)?shù)很重要,因為它提供了精確率和召回率之間的折衷。當(dāng)你想在準(zhǔn)確率和召回率之間找到平衡時,或者說針對一般的應(yīng)用可以使用F1 Score

總結(jié)

本文對混淆矩陣、準(zhǔn)度、精度、召回率和F1分?jǐn)?shù)進(jìn)行了詳細(xì)的介紹,使用這些指標(biāo)可以很好地評估和增強(qiáng)模型的性能。

責(zé)任編輯:華軒 來源: DeepHub IMBA
相關(guān)推薦

2022-07-26 00:00:03

語言模型人工智能

2024-05-27 00:45:00

2023-10-22 12:00:37

數(shù)據(jù)運(yùn)營

2025-04-07 08:40:00

開源Llama 4大模型

2023-04-10 11:35:31

評估模型業(yè)務(wù)流程

2023-12-22 19:59:15

2021-08-04 16:06:45

DataOps智領(lǐng)云

2023-09-17 23:09:24

Transforme深度學(xué)習(xí)

2018-09-28 14:06:25

前端緩存后端

2022-09-22 09:00:46

CSS單位

2025-04-03 10:56:47

2022-11-06 21:14:02

數(shù)據(jù)驅(qū)動架構(gòu)數(shù)據(jù)

2018-10-18 11:00:50

人工智能機(jī)器學(xué)習(xí)模型偏差

2025-03-18 09:10:00

MCPAI模型上下文協(xié)議

2023-05-20 17:58:31

低代碼軟件

2023-11-27 17:35:48

ComponentWeb外層

2022-10-20 08:01:23

2021-12-29 18:00:19

無損網(wǎng)絡(luò)網(wǎng)絡(luò)通信網(wǎng)絡(luò)

2022-12-01 17:23:45

2022-07-05 06:30:54

云網(wǎng)絡(luò)網(wǎng)絡(luò)云原生
點贊
收藏

51CTO技術(shù)棧公眾號