目标检测评价指标.docxVIP

  • 23
  • 0
  • 约1.28千字
  • 约 2页
  • 2023-04-03 发布于湖南
  • 举报
目标检测评价指标 一、准确率/精确率(Precision) 准确率是衡量模型预测结果好坏的一个有力指标,它反映的是模型预测正确的比例,通常计算方式为真阳性的个数(TP)与预测出的全部正例的总和(TP+FP)之比: $$ Precision = \frac{TP}{TP+FP} $$ 这个指标用来反映检测准确率,通常是反映模型检测结果中正类检测准确率,一般我们会追求较高的准确率,态度是“少判什么都判正类”,也就是如果模型有预测出非正负类的实例(可以看做是错误识别类),那么实际上准确率低就是其一个重要原因了。 二、召回率/灵敏度/查准率(Recall) 召回率用来衡量模型的检出率,它能够反映一个模型有多少的真阳性(TP)被模型检测出来,模型检出率越高,说明模型能够在真实情况下发现正类的能力越强: Recall本质上是模型在有限的资源下,尽可能多的发现正类实例,随着Recall的提高,我们期望模型能够在更多的情况下发现正类,但是也会导致一定的弊端:可能准确率也会随之降低。 三、F1-score/F值(F-Score) F1-score是由精确率和召回率综合计算出来的,也是衡量模型的好坏的关键指标,它赋予准确率和召回率平等的重要性: $$ F_{1}{Score} = 2 * \frac{Precision * Recall}{Precision + Recall} $$ F值通常用于综合衡量模型性能表现,其特性使得模型在召回率和准确率上都是中等水平,这也被认为是一个较为优秀的模型。 四、Average Precision(AP) Average Precision(AP)是一个更加实用的指标,它能够更加实用的把检测任务检测出来的实例分类任务进行综合有效的评估: 它在给定一个查询下,首先给出准确率/召回率曲线,然后将曲线下的区域作为AP的概念,计算最终的平均准确率(AP): 其中P(i)代表第i次检测出来的检测结果的准确率,R(i)-R(i-1)代表检测出第i次检测到的实例的召回率减去第(i-1)次检测到实例的召回率。 AP能够更好的反映模型的实际情况,它能够综合考量精确率和召回率,而且除了取最佳情况,能够有效的综合考量中间情况,这使得它能够更有效的反映模型的实际情况。 Mean Average Precision(mAP)是基于AP的一个更为实用的性能指标,它可以有效的将多个模型检测情况汇总到一起,来反映模型整体性能: $$ Mean\;Average\;Precision = \frac{1}{m}\sum_{j=1}^{m}\sum_{i=1}^{n}P(j, i)(R(j, i)-R(j, i-1)) $$ mAP可以综合计算多个模型在检测不同类别物体时的实际情况,它有效的将数据汇总到一个数值中,方便模型训练和对比。

文档评论(0)

1亿VIP精品文档

相关文档