敬请关注 YOLO Vision 2025!
2025年9月25日
英国夏令时 10:00 - 18:00
混合活动
Yolo Vision 2024

使用 Ultralytics YOLOv5 v6.2 简化分类工作流程

Ultralytics 团队

2 分钟阅读

2022年8月25日

探索新的 YOLOv5 v6.2 版本,其中包含分类模型、ClearML 集成、GPU 基准测试、训练可重复性等。

YOLOv5 正在将目标检测技术推向新的高度!从新的分类模型、训练可重复性、Apple Metal Performance Shader (MPS) 支持,到与 ClearML 和 Deci 的集成,我们向您展示新的 YOLOv5 v6.2 版本。

重要的 YOLOv5 更新

自 2022 年 2 月上次发布以来,我们一直在努力改进您最喜欢的 YOLO 视觉 AI 架构。以下是最新 YOLOv5 v6.2 中最重要的更新:

  • 分类模型: YOLOv5-cls ImageNet 预训练分类模型现已首次推出。
  • ClearML 日志记录: 与开源实验跟踪器 ClearML 集成。使用 pip install clearml 安装将启用集成,并允许用户跟踪 ClearML 中的每次训练运行。反过来,这允许用户跟踪和比较运行,甚至远程安排运行。
  • GPU导出基准测试: 使用 python utils/benchmarks.py --weights yolov5s.pt --device 0 进行 GPU 基准测试,或使用 --device CPU 进行 CPU 基准测试,来对所有 YOLOv5 导出格式进行基准测试(mAP 和速度)。
  • 训练可重复性: 现在,torch>=1.12.0 的单 GPU YOLOv5 训练是完全可重复的,并且可以使用新的 --seed 参数(默认 seed=0)。
  • Apple Metal Performance Shader (MPS) 支持: 通过 --device mps 为 Apple M1/M2 设备提供 MPS 支持(完整功能有待 torch 在 pytorch/pytorch#77764 中的更新)。

YOLOv5 v6.2 分类

新的分类模型

我们此次发布的主要目标是引入简单的 YOLOv5 分类工作流程,就像我们现有的目标检测模型一样。新的 v6.2 YOLOv5-cls 模型只是一个开始,我们将继续改进这些模型以及我们现有的检测模型。我们欢迎您为这项工作做出贡献

自 2022 年 2 月上次发布以来,此版本合并了 41 位贡献者的 401 个 PR。它增加了 分类训练、验证、预测和导出(到所有 11 种格式),并且还提供了 ImageNet 预训练的 YOLOv5m-cls、ResNet(18、34、50、101)和 EfficientNet(b0-b3)模型。

我们使用 4xA100 实例在 ImageNet 上训练了 YOLOv5-cls 分类模型 90 个 epoch,并且我们使用相同的默认训练设置训练了 ResNet 和 EfficientNet 模型以进行比较。我们将所有模型导出到 ONNX FP32 以进行 CPU 速度测试,并导出到 TensorRT FP16 以进行 GPU 速度测试。我们在 Google Colab Pro 上运行了所有速度测试,以便于重现。  

Ultralytics 的下一步是什么?

我们计划于2022年9月发布下一个版本v6.3,它将为YOLOv5带来官方的实例分割支持,并在今年晚些时候发布重要的v7.0版本,该版本将更新所有3个任务(分类、检测和分割)的架构。

访问我们的 YOLOv5 开源 GitHub 存储库,以随时了解最新信息并了解有关此版本的更多信息。

让我们一起构建人工智能的未来!

开启您的机器学习未来之旅

免费开始
链接已复制到剪贴板