探索 YOLOv5 v7.0,它具有新的实例分割模型,性能优于 SOTA 基准,可实现最高的 AI 准确性和速度。加入我们的社区。

探索 YOLOv5 v7.0,它具有新的实例分割模型,性能优于 SOTA 基准,可实现最高的 AI 准确性和速度。加入我们的社区。

YOLOv5 v7.0,我们 AI 架构的最新版本已经发布,我们很高兴推出我们新的实例分割模型!

在进行最新版本发布时,我们始终将两个目标放在首位。第一个目标是让 AI 变得简单,第二个目标是重新定义“最先进”的真正含义。
因此,通过重大的改进、修复和升级,我们做到了这一点。 与我们现有的 YOLOv5 目标检测模型保持相同简单的流程,现在比以往任何时候都更容易使用 YOLOv5 v7.0 训练、验证和部署您的模型。 最重要的是,我们已经超越了所有 SOTA 基准,有效地使 YOLOv5 成为世界上最快、最准确的模型。
这是我们首次发布分割模型,我们为此里程碑感到无比自豪。我们非常感谢我们敬业的社区和贡献者,他们帮助实现了此次发布。

那么,让我们开始了解 YOLOv5 v7.0 的发行说明吧!
自从我们在 2022 年 8 月发布 YOLOv5 v6.2 以来,YOLOv5 中更新的内容如下。
我们使用 A100 GPU 在 COCO 数据集上以 640 的图像尺寸训练了 YOLOv5 分割模型 300 个 epoch。我们将所有模型导出为 ONNX FP32 用于 CPU 速度测试,导出为 TensorRT FP16 用于 GPU 速度测试。我们在 Google Colab Pro 笔记本上运行了所有速度测试,以便于重现。
YOLOv5 分割训练支持自动下载 COCO128-seg 分割数据集,使用 --data coco128-seg.yaml 参数,以及手动下载 COCO-segments 数据集,使用 bash data\/scripts\/get_coco.sh --train --val --segments,然后使用 python train.py --data coco.yaml。
python segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640
python -m torch.distributed.run --nproc_per_node 4 --master_port 1 segment/train.py --model yolov5s-seg.pt --data coco128-seg.yaml --epochs 5 --img 640 --device 0,1,2,3
在 ImageNet-1k 数据集上验证 YOLOv5m-seg 的准确性:
bash data/scripts/get_coco.sh --val --segments # 下载 COCO val segments split(780MB,5000 张图像) python segment/val.py --weights yolov5s-seg.pt --data coco.yaml --img 640 # 验证
使用预训练的 YOLOv5m-seg 模型来预测 bus.jpg:
python segment/predict.py --weights yolov5m-seg.pt --data data/images/bus.jpg
model = torch.hub.load('ultralytics/yolov5', 'custom', 'yolov5m-seg.pt') # 从 PyTorch Hub 加载(警告:尚不支持推理)

将 YOLOv5s-seg 模型导出到 ONNX 和 TensorRT:
python export.py --weights yolov5s-seg.pt --include onnx engine --img 640 --device 0

有任何问题?请访问 Ultralytics 论坛、提出 issue 或在 repo 上提交 PR。您还可以通过我们的 YOLOv5 分割 Colab 笔记本 开始学习快速入门教程。


.webp)