Accuracy、Recall、Precission、F1 Score分别是什么?

2025年9月28日 58点热度 0人点赞 0条评论

转载自小红书,打数模时需要对最后训练结果进行分析时必用的四个指标:准确率、召回率、精确率、F1分数。

作为指标,一定会涉及几个方面

  1. 用来描述什么
  2. 如何计算的
  3. 指标的意义是什么
    那为了计算这几个指标,我们需要了解什么是TP、TN、FP、FN
    用识别苹果举例
    假设我们有100张照片:
    其中有40张是真的苹果照片称之为正样本。
    另外60张不是苹果照片称之为负样本。
    模型预测可能有四种情况:
  4. 预测是苹果,实际是苹果,TruePositive (TP)
  5. 预测是苹果,实际不是苹果,FalsePositive (FP)
  6. 预测不是苹果,实际是苹果,FalseNegative (FN)
  7. 预测不是苹果,实际也不是苹果,TrueNegative (TN)
    True or False =有没有猜对
    Positive or Negative 表示猜的结果 是不是正类,是苹果为正类。

假设:

TP (预测正确):30个

FN (漏检):10个

FP (误认为是):15个

TN (预测正确不是):45个
带入数据
1️⃣准确率 (Accuracy)

【是什么?】所有预测结果中,预测正确的比例

【公式】Accuracy = \frac{{TP + TN}}{{TP + TN + FP + FN}}

【例子】(30+45) / (30+45+15+10) =75%

【意义】最直观的指标,但在数据不平衡时表现不佳
2️⃣精确率 (Precision)

模型所有预测为“苹果”的结果中,有多少是真正的苹果

公式:{\rm{Precission = }}\frac{{{\rm{TP}}}}{{{\rm{TP + FP}}}}

30/ (30+15) ≈ 66.7%

是“预测的准不准”,非常看重“减少误报”的场景
3️⃣召回率 (Recall)

所有真正的苹果中,被模型成功找出来了多少

公式:{\rm{Recall = }}\frac{{{\rm{TP}}}}{{{\rm{TP + FN}}}}

30 / (30+10)=75%

关注的是“找的全不全”、“减少漏检”,宁可错检也不能漏检
4️⃣F1分数 (F1-Score)

精确率和召回率的调和平均数

公式:{\rm{F1 = }}\frac{{{\rm{2}} \times {\rm{(Precission}} \times {\rm{Recall)}}}}{{{\rm{Precission + Recall}}}}

2(0.6670.75) / (0.667+0.75)≈70.6%

F1分数综合的分数来评判模型的好坏。尤其是在数据不平衡时,比准确率更有参考价值。精确率和召回率通常是矛盾的

MuWinds

这个人很懒,什么都没留下

文章评论