一文讀懂分類模型評估指標(biāo)
模型評估是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)中非常重要的一部分,用于衡量模型的性能和效果。本文將逐步分解混淆矩陣,準(zhǔn)確性,精度,召回率和F1分?jǐn)?shù)。
混淆矩陣
混淆矩陣是在分類問題中用于評估模型性能的表格,它展示了模型對樣本的分類情況?;煜仃嚨男斜硎緦嶋H類別,列表示預(yù)測類別。對于二分類問題,混淆矩陣的結(jié)構(gòu)如下:
- True Positive (TP): 實際為正例,模型預(yù)測為正例的樣本數(shù),模型正確識別正面實例的能力。更高的TP通常是可取的
- False Negative (FN): 實際為正例,模型預(yù)測為負(fù)例的樣本數(shù),根據(jù)應(yīng)用程序的不同,這可能是關(guān)鍵的(例如,未能檢測到安全威脅)。
- False Positive (FP): 實際為負(fù)例,模型預(yù)測為正例的樣本數(shù),強(qiáng)調(diào)模型在不應(yīng)該預(yù)測為正的情況下預(yù)測為正的情況,這可能會產(chǎn)生取決于應(yīng)用的后果(例如,醫(yī)療診斷中不必要的治療)
- True Negative (TN): 實際為負(fù)例,模型預(yù)測為負(fù)例的樣本數(shù),反映模型正確識別否定實例的能力。通常需要更高的TN
初學(xué)者看起來很亂,其實這樣理解就非常簡單了,后面的Negative/Positive 為模型預(yù)測值,前面的True/False 為模型預(yù)測是否正確,比如True Negative,代表,模型預(yù)測是Negative并且與實際的值對比是True 也就是預(yù)測正確的,這樣就好理解了。以下是一個簡單的混淆矩陣:
from sklearn.metrics import confusion_matrix
import seaborn as sns
import matplotlib.pyplot as plt
# Example predictions and true labels
y_true = [1, 0, 1, 1, 0, 1, 0, 0, 1, 0]
y_pred = [1, 0, 1, 0, 0, 1, 0, 1, 1, 1]
# Create a confusion matrix
cm = confusion_matrix(y_true, y_pred)
# Visualize the blueprint
sns.heatmap(cm, annot=True, fmt="d", cmap="Blues", xticklabels=["Predicted 0", "Predicted 1"], yticklabels=["Actual 0", "Actual 1"])
plt.xlabel("Predicted")
plt.ylabel("Actual")
plt.show()
當(dāng)你想強(qiáng)調(diào)正確的預(yù)測和整體準(zhǔn)確性時,使用TP和TN。當(dāng)你想了解你的模型所犯的錯誤類型時,使用FP和FN。例如,在誤報成本很高的應(yīng)用程序中,最小化誤報可能是至關(guān)重要的。
比如一個垃圾郵件分類器?;煜仃嚳梢岳斫庹_識別了多少垃圾郵件,錯誤標(biāo)記了多少非垃圾郵件。
基于混淆矩陣,可以計算許多其他評估指標(biāo),例如準(zhǔn)確度、精確度、召回率和F1分?jǐn)?shù)。
Accuracy
根據(jù)我們上面的總結(jié),計算的是能夠正確預(yù)測的的比例,分子是TP和TN都是True,也就是模型預(yù)測對了的總數(shù)
Precision
可以看到公式,他計算的是Positive 的占比,也就是說數(shù)據(jù)中所有Positive的,正確預(yù)測對了有多少,所以精確度Precision又被稱作查準(zhǔn)率
在誤報有重大后果或成本的情況下,這是至關(guān)重要的。例如在醫(yī)學(xué)診斷模型中,精確度確保只對真正需要治療的人進(jìn)行治療。
Recall
召回率,也稱為靈敏度或真陽性率,關(guān)注模型捕獲所有正類實例的能力。
從公式中可以看到,它主要是計算模型捕獲了多少實際的Positive,也就是Positive的占比,所以Recall又被稱作查全率
F1 Score
F1分?jǐn)?shù)是一個在精確度和召回率之間取得平衡的指標(biāo),為模型的性能提供了一個全面的衡量標(biāo)準(zhǔn)。它是查準(zhǔn)率和查全率的調(diào)和平均值,計算公式為:
F1分?jǐn)?shù)很重要,因為它提供了精確率和召回率之間的折衷。當(dāng)你想在準(zhǔn)確率和召回率之間找到平衡時,或者說針對一般的應(yīng)用可以使用F1 Score
總結(jié)
本文對混淆矩陣、準(zhǔn)度、精度、召回率和F1分?jǐn)?shù)進(jìn)行了詳細(xì)的介紹,使用這些指標(biāo)可以很好地評估和增強(qiáng)模型的性能。