En cliquant sur "Accepter tous les cookies", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser l'utilisation du site et de nous aider dans nos efforts de marketing. Plus d'informations
Paramètres des cookies
En cliquant sur "Accepter tous les cookies", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser l'utilisation du site et de nous aider dans nos efforts de marketing. Plus d'informations
Découvrez la nouvelle version YOLOv5 v6.2 avec des modèles de classification, l'intégration de ClearML, des benchmarks GPU, la reproductibilité de l'entraînement, et plus encore.
YOLOv5 repousse les limites de l'état de l'art en matière de détection d'objets ! De nouveaux modèles de classification, la reproductibilité de l'entraînement, la prise en charge du Metal Performance Shader (MPS) d'Apple, jusqu'aux intégrations avec ClearML et Deci, nous vous présentons la nouvelle version YOLOv5 v6.2.
Mises à jour importantes de YOLOv5
Nous avons travaillé à l'amélioration de votre architecture YOLO Vision AI préférée depuis notre dernière version en février 2022. Voici les principales mises à jour de la dernière version YOLOv5 v6.2 :
Modèles de classification : Les modèles de classification YOLOv5-cls formés par ImageNet sont désormais disponibles pour la première fois.
Enregistrement ClearML : Intégration avec le tracker d'expériences open-source ClearML. L'installation avec pip install clearml activera l'intégration et permettra aux utilisateurs de suivre chaque entraînement dans ClearML. Cela permet aux utilisateurs de suivre et de comparer les expériences et même de programmer des expériences à distance.
Benchmarks d'exportation GPU : Benchmark (mAP et vitesse) de tous les formats d'exportation YOLOv5 avec python utils/benchmarks.py --weights yolov5s.pt --device 0 pour les benchmarks GPU ou --device CPU pour les benchmarks CPU.
Reproductibilité de l'entraînement : L'entraînement YOLOv5 sur un seul GPU avec torch>=1.12.0 est maintenant entièrement reproductible, et un nouvel argument --seed peut être utilisé (par défaut seed=0).
Prise en charge du Metal Performance Shader (MPS) d'Apple : Support MPS pour les appareils Apple M1/M2 avec --device mps (la fonctionnalité complète est en attente de mises à jour de torch dans pytorch/pytorch#77764).
Nouveaux modèles de classification
Notre objectif principal avec cette version est d'introduire des flux de travail de classification YOLOv5 simples, tout comme nos modèles de détection d'objets existants. Les nouveaux modèles YOLOv5-cls v6.2 ne sont qu'un début, nous continuerons à les améliorer en même temps que nos modèles de détection existants. Nous serions ravis que vous contribuiez à cet effort !
Cette version intègre 401 PRs de 41 contributeurs depuis notre dernière version en février 2022. Elle ajoute l'entraînement, la validation, la prédiction et l'exportation de la classification (dans les 11 formats), et fournit également les modèles YOLOv5m-cls, ResNet (18, 34, 50, 101) et EfficientNet (b0-b3) pré-entraînés par ImageNet.
Nous avons entraîné les modèles de classification YOLOv5-cls sur ImageNet pendant 90 époques en utilisant une instance 4xA100, et nous avons entraîné les modèles ResNet et EfficientNet en parallèle avec les mêmes paramètres d'entraînement par défaut pour les comparer. Nous avons exporté tous les modèles vers ONNX FP32 pour les tests de vitesse CPU et vers TensorRT FP16 pour les tests de vitesse GPU. Nous avons effectué tous les tests de vitesse sur Google Colab Pro pour faciliter la reproductibilité.
Quelle est la prochaine étape pour Ultralytics ?
Notre prochaine version, v6.3, est prévue pour septembre 2022 et apportera le support officiel de la segmentation des instances à YOLOv5, avec une version majeure v7.0 plus tard dans l'année qui mettra à jour les architectures pour les trois tâches - classification, détection et segmentation.
Visitez notre dépôt GitHub open-source YOLOv5 pour rester à jour et en savoir plus sur cette version.