探索YOLOv5 .0,了解全新实例分割模型,超越 SOTA 基准的顶级人工智能准确性和速度。加入我们的社区。

探索YOLOv5 .0,了解全新实例分割模型,超越 SOTA 基准的顶级人工智能准确性和速度。加入我们的社区。

我们的人工智能架构的最新版本YOLOv5 v7.0 已经发布,我们非常高兴地介绍我们的新实例分割模型!

在进行最新版本发布时,我们始终将两个目标放在首位。第一个目标是让 AI 变得简单,第二个目标是重新定义“最先进”的真正含义。
因此,通过重大改进、修复和升级,我们做到了这一点。YOLOv5 v7.0 与我们现有的YOLOv5 物体检测模型保持相同的简单工作流程,现在比以往任何时候都更容易训练、验证和部署您的模型。除此之外,我们还超越了所有SOTA 基准,使YOLOv5 成为世界上最快、最准确的产品。
这是我们首次发布分割模型,我们为此里程碑感到无比自豪。我们非常感谢我们敬业的社区和贡献者,他们帮助实现了此次发布。

现在,让我们开始了解YOLOv5 v7.0发布说明!
以下是YOLOv5 自 2022 年 8 月发布YOLOv5 v6.2以来的更新内容。
我们使用 A100 GPU 在COCO 上对YOLOv5 分割模型进行了 300 次历时训练,图像大小为 640。我们将所有模型导出到ONNX FP32 进行CPU 速度测试,并导出到TensorRT FP16 进行GPU 速度测试。我们在Google Colab Pro笔记本上进行了所有速度测试,以方便重现。
YOLOv5 细分训练支持使用 --dataCOCO128yaml 参数自动下载COCO128 细分数据集,以及使用bash data/scripts/get_coco.sh --train --val --segments 和python train.py --data coco.yaml 手动下载COCO 数据集。
python segment.py --model yolov5s-seg.pt --data coco128-segyaml --epochs 5 --img 640
python -mtorch.distributed.run --nproc_per_node 4 --master_port 1segment.py --model yolov5s-seg.pt --data coco128-segyaml --epochs 5 --img 640 --device 0,1,2,3
在ImageNet 数据集上验证 YOLOv5m-seg 的准确性:
bash data/scripts/get_coco.sh --val --segments # 下载COCO val 分割片段(780MB,5000 幅图像)python segment.py --weights yolov5s-seg.pt --data cocoyaml --img 640 # 验证
使用预训练的 YOLOv5m-seg 模型来预测 bus.jpg:
python segment.py --weights yolov5m-seg.pt --data data/images/bus.jpg
model =torch.hub.load(ultralyticsyolov5', 'custom', 'yolov5m-seg.pt') # 从PyTorch 中枢加载(警告:尚不支持推理)。

将 YOLOv5s-seg 模型导出到ONNX 和TensorRT:
python export.py --weights yolov5s-seg.pt --includeonnx engine --img 640 --device 0

有任何问题?请到Ultralytics 论坛提问,提出问题,或在软件仓库提交 PR。您还可以从我们的YOLOv5 细分 Colab 笔记本中获取快速入门教程。

