探索机器学习中召回率的重要性。了解如何衡量和提高 Ultralytics YOLO26 模型的灵敏度,以确保高检测率。
召回率,也称为灵敏度或真阳性率,是机器学习中衡量模型识别数据集中所有相关实例能力的基本性能指标。在目标检测或分类的背景下,它具体回答了这个问题:“在所有实际正例中,模型正确找到了多少?” 在遗漏一个正例(通常称为假阴性)会带来严重后果的场景中,实现高召回率至关重要。与在处理不平衡数据时可能产生误导的准确率不同,召回率提供了对模型“捕获”目标类有效性的集中视图。
在许多人工智能应用中,未能 detect 一个目标的成本远高于误报的成本。一个针对召回率优化的模型可以最大程度地减少假阴性,确保系统撒下足够大的网,以捕获潜在威胁、异常或关键情况。这通常涉及权衡,因为提高召回率有时会导致精确率分数降低,这意味着模型可能会将更多不相关的项目标记为阳性。理解这种平衡是开发稳健的机器学习解决方案的关键。
召回率是许多安全关键型AI解决方案背后的关键指标。以下是两个灵敏度优先的突出示例:
区分召回率及其对应指标精确率至关重要。召回率衡量的是找到的相关案例的数量(完整性),而精确率衡量的是阳性预测的质量(准确性)。
这两个指标通常呈反比关系,通过精确率-召回率曲线可视化。为了评估它们之间的整体平衡,开发人员通常会查看F1分数,它是两者的调和平均值。在不平衡数据集中,将召回率与混淆矩阵结合起来看,比单独看准确率能更清晰地反映性能。
在训练像尖端 YOLO26 这样的模型时,recall 在 validation 阶段自动计算。框架计算每个类别的 recall 和 平均精度均值 (mAP),帮助开发者衡量模型 detect 目标的效果。
您可以使用 python 轻松验证训练好的模型并查看其召回率指标。此代码片段演示了如何加载模型并检查其在标准数据集上的性能:
from ultralytics import YOLO
# Load a pretrained YOLO26 model
model = YOLO("yolo26n.pt")
# Validate the model on the COCO8 dataset
# The results object contains metrics like Precision, Recall, and mAP
metrics = model.val(data="coco8.yaml")
# Access and print the mean recall score for box detection
print(f"Mean Recall: {metrics.results_dict['metrics/recall(B)']:.4f}")
此代码利用Ultralytics API运行验证。如果召回率低于项目要求,您可以考虑使用数据增强等技术来创建更多样化的训练样本,或通过超参数调优来调整模型的灵敏度。使用Ultralytics Platform还可以简化数据集管理和在多次训练运行中跟踪这些指标的过程。
为了提高模型的召回率,数据科学家通常会调整在推理过程中使用的置信度阈值。降低阈值会使模型更“乐观”,接受更多预测为阳性,这会提高召回率,但可能会降低精确率。此外,收集更多样化的训练数据有助于模型学习识别难负例和模糊实例。对于复杂任务,采用Transformer块等高级架构或探索集成方法也可以提高系统 detect 简单模型可能遗漏的细微特征的能力。

开启您的机器学习未来之旅