En cliquant sur "Accepter tous les cookies", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser l'utilisation du site et de nous aider dans nos efforts de marketing. Plus d'informations
Paramètres des cookies
En cliquant sur "Accepter tous les cookies", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser l'utilisation du site et de nous aider dans nos efforts de marketing. Plus d'informations
Découvrez YOLOv5 v7.0 avec de nouveaux modèles de segmentation d'instances, surpassant les benchmarks SOTA pour une précision et une vitesse d'IA de haut niveau. Rejoignez notre communauté.
YOLOv5 v7.0, la dernière version de notre architecture d'IA, est sortie, et nous sommes ravis de vous présenter nos nouveaux modèles de segmentation d'instances !
En travaillant sur cette dernière version, nous avons gardé deux objectifs en tête. Le premier était notre mission de rendre l'IA facile, et le second était notre objectif de redéfinir ce que signifie réellement "l'état de l'art".
C'est ce que nous avons fait en apportant des améliorations, des corrections et des mises à jour significatives. En conservant les mêmes flux de travail simples que nos modèles de détection d'objets YOLOv5 existants, il est maintenant plus facile que jamais d'entraîner, de valider et de déployer vos modèles avec YOLOv5 v7.0. De plus, nous avons dépassé toutes les références SOTA, faisant de YOLOv5 le plus rapide et le plus précis au monde.
Comme il s'agit de notre première version de modèles de segmentation, nous sommes immensément fiers de cette étape. Nous remercions vivement notre communauté dévouée et nos contributeurs, qui nous ont aidés à rendre cette version possible.
Voici ce qui a été mis à jour dans YOLOv5 depuis notre dernière version de YOLOv5 v6.2 en août 2022.
Modèles de segmentation ⭐ NOUVEAU: Les modèles de segmentation SOTA YOLOv5-seg COCO-pretrained sont maintenant disponibles pour la première fois(#9052 par @glenn-jocher, @AyushExel, et @Laughing-q).
Exportation PaddlePaddle: Exporter n'importe quel modèle YOLOv5 (cls, seg, det) au format Paddle avec python export.py --include paddle #9459 par @glenn-jocher)
YOLOv5 AutoCache: L'utilisation de python train.py --cache ram analysera désormais la mémoire disponible et la comparera à l'utilisation prévue de la mémoire vive de l'ensemble de données. Cela réduit le risque de mise en cache et devrait aider à améliorer l'adoption de la fonctionnalité de mise en cache du jeu de données, qui peut accélérer de manière significative la formation.(#10027 par @glenn-jocher)
Intégration de l'enregistrement et de la visualisation Comet: Gratuit pour toujours, Comet vous permet de sauvegarder les modèles YOLOv5, de reprendre l'entraînement et de visualiser et déboguer les prédictions de manière interactive.(#9232 par @DN6)
Nouveaux points de contrôle de la segmentation
Nous avons entraîné les modèles de segmentation YOLOv5 sur COCO pendant 300 époques à une taille d'image de 640 en utilisant des GPU A100. Nous avons exporté tous les modèles vers ONNX FP32 pour les tests de vitesse CPU et vers TensorRT FP16 pour les tests de vitesse GPU. Nous avons effectué tous les tests de vitesse sur des ordinateurs portables Google Colab Pro pour faciliter la reproductibilité.
Tous les points de contrôle sont entraînés à 300 époques avec l'optimiseur SGD avec lr0=0.01 et weight_decay=5e-5 à la taille d'image 640 et tous les paramètres par défaut. Toutes les exécutions sont enregistrées ici.
Les valeurs de précision sont pour un seul modèle à une seule échelle sur le jeu de données COCO. Reproduction par python segment/val.py --data coco.yaml --weights yolov5s-seg.pt
Vitesse moyenne sur 100 images d'inférence en utilisant une instance Colab Pro A100 High-RAM. Les valeurs indiquent la vitesse d'inférence uniquement (NMS ajoute environ 1ms par image). Reproduction par python segment/val.py --data coco.yaml --weights yolov5s-seg.pt --batch 1
Exportation vers ONNX en FP32 et TensorRT en FP16 réalisée avec export.py. Reproduction par python export.py --weights yolov5s-seg.pt --include engine --device 0 --half
Exemples d'utilisation de la nouvelle segmentation
Train
La formation à la segmentation de YOLOv5 prend en charge le téléchargement automatique du jeu de données de segmentation COCO128-seg avec l'argument --data coco128-seg.yaml et le téléchargement manuel du jeu de données COCO-segments avec bash data/scripts/get_coco.sh --train --val --segments et ensuite python train.py --data coco.yaml.