术语表

回顾

了解什么是机器学习中的 Recall,为什么它很重要,以及它如何确保人工智能模型有效捕捉关键的积极实例。

召回率(Recall又称灵敏度或真阳性率,是机器学习(ML)和统计学中的一个基本评估指标。它衡量模型正确识别数据集中所有相关实例的能力。简单来说,Recall 回答了一个问题:"在所有实际的正向实例中,模型正确预测为正向的实例有多少?高 Recall 分数表明,模型能有效地找到它应该找到的内容,最大限度地减少漏报的正例(假阴性)数量。这一指标在一些应用中尤为重要,因为在这些应用中,检测不到阳性案例会造成严重后果。

高召回率的重要性

在现实世界的许多场景中,假阴性(漏检)的代价远远高于假阳性(误报)的代价。这就是优先考虑高召回率的关键所在。例如,在医疗图像分析或欺诈检测等任务中,高召回率模型可确保捕获尽可能多的真实案例以供进一步审查,即使这意味着一些非案例会被错误标记。

  • 医疗诊断:人工智能驱动的从医学扫描中检测癌症的系统中,高召回模型至关重要。让系统标记出一个健康的病人供放射科医生复查(假阳性)要比漏掉一个癌症肿瘤(假阴性)好得多,因为后者可能会延误救命的治疗。许多人工智能医疗解决方案都针对高灵敏度进行了优化。
  • 安全和监控:对于旨在侦测入侵者的安全警报系统而言,高召回率至关重要。系统必须识别每一个潜在的威胁,即使偶尔会将一只流浪动物误认为入侵者。错过真正的安全漏洞会使系统失效。

Ultralytics YOLO 模型中的召回率

计算机视觉(CV)Ultralytics YOLO 等模型中,召回率是一个关键指标,与精确度和平均精确度(mAP)一起用于评估物体检测实例分割等任务的性能。在召回率和精确度之间取得良好的平衡往往是实现强大的实际性能的关键。例如,在比较YOLOv8 和 YOLO11 等模型时,召回率有助于了解每个模型识别所有目标对象的能力。用户可以使用PyTorchTensorFlow等框架训练自定义模型,并使用Weights & Biases等工具或Ultralytics HUB 中的集成功能跟踪 Recall。了解 Recall 有助于针对特定用例优化模型,可能涉及超参数调整或探索不同的模型架构,如YOLOv10或最新的YOLO11Ultralytics 文档等资源提供了全面的培训和评估指南。

召回与其他指标

必须将召回率与其他常见的评价指标区分开来。

  • 精确度:召回率(Recall)侧重于找到所有阳性样本,而精度(Precision)则衡量所做阳性预测的准确性。它的答案是"在模型预测为阳性的所有实例中,实际上有多少是阳性的?精确度和召回率之间往往需要权衡;提高一个可能会降低另一个。这一概念被称为精度-召回权衡
  • 准确性:衡量正确预测(包括正面和负面预测)的总体百分比。对于不平衡的数据集来说,准确率可能是一个具有误导性的指标,因为在不平衡的数据集中,一类样本的数量远远多于另一类样本。例如,在一个负样本占 99% 的数据集中,一个将所有样本都预测为负样本的模型可以达到 99% 的准确率,但对正样本的召回率为零。
  • F1 评分:这是精确度和召回率的调和平均值。F1 分数提供了一个平衡两个指标的单一数字,因此在需要同时考虑假阳性和假阴性时,它是一个非常有用的指标。当类别分布不均匀时,通常会用到它。
  • 曲线下面积 (AUC):具体到二元分类,接收者工作特征曲线(ROC)绘制了真阳性率(召回率)与假阳性率的对比图。AUC 提供了一个单一的分数,总结了模型在所有分类阈值下的性能。对于不平衡分类任务,精度-召回曲线下的面积(AUC-PR)通常更有参考价值。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、合作和成长

立即加入
链接复制到剪贴板