Представление сегментации экземпляров в Ultralytics YOLOv5 v7.0
Откройте для себя YOLOv5 v7.0 с новыми моделями сегментации экземпляров, превосходящими эталоны SOTA по точности и скорости работы ИИ. Присоединяйтесь к нашему сообществу.

Откройте для себя YOLOv5 v7.0 с новыми моделями сегментации экземпляров, превосходящими эталоны SOTA по точности и скорости работы ИИ. Присоединяйтесь к нашему сообществу.

YOLOv5 v7.0, последняя версия нашей архитектуры искусственного интеллекта, уже вышла, и мы рады представить вам новые модели сегментации экземпляров!

Во время работы над этим последним выпуском мы держали в центре внимания две цели. Первая — наша миссия сделать ИИ простым, а вторая — наша цель переосмыслить, что на самом деле означает «современный».
Благодаря значительным улучшениям, исправлениям и обновлениям мы сделали именно это. Сохранив те же простые рабочие процессы, что и в наших существующих моделях обнаружения объектов YOLOv5 , теперь обучать, проверять и внедрять свои модели с YOLOv5 v7.0 стало проще, чем когда-либо. Кроме того, мы превзошли все контрольные показатели SOTA, сделав YOLOv5 самым быстрым и точным в мире.
Поскольку это наш первый выпуск моделей сегментации, мы очень гордимся этой вехой. Мы очень благодарны нашему преданному сообществу и контрибьюторам, которые помогли сделать этот выпуск возможным.

Итак, давайте начнем знакомиться с информацией о выпуске YOLOv5 v7.0!
Вот что было обновлено в YOLOv5 с момента нашего последнего выпуска YOLOv5 v6.2 в августе 2022 года.
Мы обучили модели сегментации YOLOv5 на COCO в течение 300 эпох при размере изображения 640, используя графические процессоры A100. Мы экспортировали все модели в ONNX FP32 для тестирования скорости CPU и в TensorRT FP16 для тестирования скорости GPU . Все тесты проводились на ноутбуках Google Colab Pro для удобства воспроизведения.
Обучение сегментации YOLOv5 поддерживает автоматическую загрузку набора данных сегментации COCO128 с аргументом --data coco128-segyaml и ручную загрузку набора данных COCO с помощью bash data/scripts/get_coco.sh --train --val --segments и затем python train.py --data cocoyaml.
python segment.py --model yolov5s-seg.pt --data coco128-segyaml --epochs 5 --img 640
python -m torch.distributed.run --nproc_per_node 4 --master_port 1 segment.py --model yolov5s-seg.pt --data coco128-segyaml --epochs 5 --img 640 --device 0,1,2,3
Проверка точности YOLOv5m-seg на наборе данных ImageNet:
bash data/scripts/get_coco.sh --val --segments # загрузить сегменты COCO val split (780 МБ, 5000 изображений) python segment.py --weights yolov5s-seg.pt --data cocoyaml --img 640 # проверить
Используйте предварительно обученную YOLOv5m-seg для прогнозирования bus.jpg:
python segment.py --weights yolov5m-seg.pt --data data/images/bus.jpg
model = torch.hub.load(ultralyticsyolov5', 'custom', 'yolov5m-seg.pt') # загрузка из PyTorch Hub (WARNING: inference not yet supported)

Экспортируйте модель YOLOv5s-seg в ONNX и TensorRT:
python export.py --weights yolov5s-seg.pt --include onnx engine --img 640 --device 0

Есть вопросы? Задайте их на форумеUltralytics , поднимите вопрос или отправьте PR в репозиторий. Вы также можете начать работу с нашим блокнотомYOLOv5 сегментации Colab для быстрого обучения.