了解准确率在机器学习中的重要性、其计算方法、不平衡数据集的局限性以及提高模型性能的方法。
准确度是评估分类模型性能的最基本指标之一。它 表示系统在处理的全部预测中做出正确预测的比例。 在更广泛的机器学习(ML 在机器学习 (ML) 的大环境下,准确率往往是 在机器学习(ML)的大环境下,准确率往往是开发人员衡量一个模型是有效学习还是简单猜测的第一个指标。虽然它提供了 虽然它提供了一个快速的有效性快照,但它经常与其他 评估指标,以确保 特别是在区分复杂数据集中的不同类别时。
精确度的计算简单明了,因此从数据科学家到业务主管等利益相关者都能很容易地使用它。 从数据科学家到业务主管等利益相关者都非常容易理解。它的数学定义是:真阳性和真阴性的数量 除以案例总数。对于 对于监督学习任务,该指标 表示算法与训练数据中提供的基本事实一致的频率。 训练数据的一致程度。然而,高准确率并不总是 其可靠性在很大程度上取决于基础数据的分布。
在各行各业中,准确性都发挥着举足轻重的作用,在这些行业中,自动决策可为人类专家提供帮助。
在使用 ultralytics 软件包,评估准确性是验证工作流程的标准组成部分。
验证工作流程的标准组成部分。下面的示例演示了如何加载
YOLO11 分类模型,并对其进行验证,以检索
准确度指标。
from ultralytics import YOLO
# Load a pretrained YOLO11 classification model
model = YOLO("yolo11n-cls.pt")
# Validate the model on the MNIST160 dataset
# The function returns a metrics object containing top1 and top5 accuracy
metrics = model.val(data="mnist160")
# Display the Top-1 accuracy (percentage of times the top prediction was correct)
print(f"Top-1 Accuracy: {metrics.top1:.2f}")
虽然直观,但在处理不平衡数据集时,准确性可能会产生误导。 不平衡的数据集。这种现象被称为准确率悖论。例如,在欺诈检测场景中,只有 1% 的交易是欺诈性的。 例如,在欺诈检测场景中,只有 1%的交易是欺诈性的,如果一个模型只是预测每笔交易都是 "合法 "的,那么它的准确率将达到 99% 的准确率。然而,它在检测欺诈这一主要任务上却完全失败了。在这种情况下,模型 显示出很高的准确率,但对少数类别的预测能力为零。
为了解决这个问题,实践者采用了 数据扩充来平衡班级或 不同的指标来分析错误的类型。
要全面了解模型的性能,必须将精度与相关术语区分开来:
提高准确性需要一个反复试验的过程。开发人员经常利用 超参数调整来调整学习 率和批量大小,以达到最佳收敛效果。此外,采用先进的架构,如 变压器或最新迭代的 Ultralytics YOLO 都能带来巨大的收益。最后,通过主动学习确保训练数据集的干净和多样化 主动学习有助于模型更好地 到未见过的真实世界数据。

