En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Paramètres des cookies
En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Pour le 1er anniversaire d'Ultralytics YOLOv8, nous revenons sur son impact, où trouver toute la documentation, comment entraîner les modèles et bien plus encore !
Aujourd'hui, le 10 janvier 2024, marque le premier anniversaire du lancement d'Ultralytics YOLOv8, et il est temps de célébrer ! Cette année a été riche en événements marquants et en dépassement des limites du possible. Rejoignez-nous pour revenir sur les faits saillants de 2023 et sur ce qui nous attend en 2024.
Réflexions sur l'impact de YOLOv8 en 2023
Fig. 1. 19 millions de modèles YOLOv8 entraînés en 2023
YOLOv8 a été chaleureusement accueilli par les passionnés de vision par ordinateur et la communauté dans son ensemble. Au cours de l'année écoulée, le package Ultralytics a été téléchargé plus de 20 millions de fois, avec un nombre record de 4 millions de téléchargements rien qu'en décembre. Glenn Jocher, notre fondateur et PDG, est heureux de partager que l'intérêt pour YOLOv8 continue de croître, avec plus de 1 000 tâches d'inférence lancées chaque seconde de chaque jour !
Au-delà de susciter l'intrigue et la curiosité, YOLOv8 s'est également avéré avoir un impact dans des applications pratiques et réelles. Cette année, nous avons constaté que 5 millions d'utilisateurs et 15 milliards d'événements ont bénéficié de YOLOv8 dans divers secteurs et domaines. De l'amélioration des systèmes de surveillance aux avancées innovantes dans les domaines de la santé, de l'agriculture ou de la fabrication, YOLOv8 révolutionne les industries à l'échelle mondiale.
Développement de la documentation de YOLOv8
Nous rapprochons YOLOv8 de vous ! Notre documentation est maintenant disponible en 11 langues, avec plus de 200 pages de documentation, et continue de s'étendre pour mieux répondre aux besoins de notre communauté diversifiée ! Notre documentation va au-delà et comprend des guides pour les projets du monde réel suivants :
La documentation illustre également la prise en charge de divers jeux de données par Ultralytics. Par exemple, récemment, le jeu de données Open Images V7 avec 600 classes a été ajouté à la liste des jeux de données pris en charge. De plus, nous avons mis à disposition un modèle pré-entraîné pour le jeu de données Open Images V7 que vous pouvez essayer !
Création de modèles YOLOv8 entraînés personnalisés
Au-delà de l'utilisation de modèles pré-entraînés, les utilisateurs recherchent également des solutions de vision par ordinateur personnalisées qui résolvent des problèmes commerciaux très spécifiques. La capacité d'entraîner des modèles YOLOv8 sur des données personnalisées est devenue un avantage significatif, et un nombre stupéfiant de 19 millions de modèles YOLOv8 ont été entraînés en 2023. Ces modèles ont été entraînés pour diverses tâches, dont 64 % sont dédiés à la détection d'objets, 20 % à la segmentation d'images, 15 % à l'estimation de la pose et 1 % à la classification d'images.
Ces chiffres sont en partie possibles parce que n'importe qui peut entraîner YOLOv8 grâce à la plateforme ML sans code d'Ultralytics, Ultralytics HUB - indépendamment de son expertise en codage. Vous pouvez rapidement créer et entraîner des modèles avancés sans avoir besoin de code sur Ultralytics HUB, qui est accessible à la fois sur le web et sur mobile. Alors que nous célébrons les succès de YOLOv8, revenons également sur la façon dont Ultralytics HUB a évolué au cours de cette dernière année.
La croissance d'Ultralytics HUB en 2023
L'année 2023 a été une excellente année pour Ultralytics HUB, avec 84 mises à jour de version percutantes, chacune nous orientant vers une meilleure fonctionnalité et une meilleure expérience utilisateur. Nous avons dévoilé des fonctionnalités majeures telles que ‘Teams’ pour une collaboration transparente, notre version Pro HUB pour des capacités améliorées, un historique de facturation plus clair pour votre tranquillité d'esprit financière et un nouveau système de feedback utilisateur.
La gestion de vos modèles n'a jamais été aussi simple. Vous pouvez désormais comparer et déplacer des modèles lorsque vous travaillez sur un projet. Nous avons activé encore plus de formats pour vous offrir des options d'exportation de modèles flexibles, et bien plus encore.
Outre les nouvelles fonctionnalités améliorées, beaucoup de temps et d'énergie ont également été consacrés à l'amélioration des fonctionnalités existantes. Par exemple, grâce au chargement prioritaire, la plateforme démarre à la vitesse de l'éclair. L'image de marque et l'UX de HUB ont été repensées pour une expérience visuellement époustouflante, et le tableau de bord utilisateur propose des liens rapides et une vidéo d'introduction pour un démarrage plus facile.
La gestion des clés API a été remaniée pour être encore plus sûre, et la plateforme a été intégrée à l'application Ultralytics pour une expérience aller-retour plus fluide. Et ce n'est là que quelques exemples !
Fig 2. Tableau de bord utilisateur amélioré : liens rapides et vidéo d'introduction pour un démarrage plus facile.
Alors que nous entrons dans l'année 2024, nous sommes ravis de voir HUB se développer encore davantage grâce à votre soutien et à vos contributions. Explorons ensemble les prochaines étapes pour YOLOv8 !
Quelles sont les prochaines étapes pour YOLOv8 en 2024 ?
Découvrez les derniers développements, y compris la version YOLOv8.1, et explorez ce qui attend Ultralytics en 2024 !
Présentation de : Ultralytics Explorer
Juste à temps pour le premier anniversaire de YOLOv8, nous lançons un nouvel outil compatible avec YOLOv8, appelé Ultralytics Explorer. Cet outil innovant promet de changer la façon dont les utilisateurs explorent et interagissent avec leurs ensembles de données. Vous pouvez utiliser l'API Ultralytics Explorer ou l'interface graphique pour filtrer et rechercher dans vos ensembles de données à l'aide de requêtes SQL, de la recherche de similarité vectorielle et de la recherche sémantique.
L'une des fonctionnalités intéressantes d'Ultralytics Explorer est la correspondance d'images. Par exemple, vous pouvez sélectionner une image dans votre ensemble de données et trouver toutes les images de votre ensemble de données qui sont similaires à cette image. Cela peut faciliter la compréhension et la gestion de votre ensemble de données.
Fig 3. Nouveau Ultralytics Explorer
Disons que vous voulez voir toutes les photos de girafes dans votre ensemble de données, vous pouvez le faire en quelques clics ! Il prend également en charge la correspondance d'images multiples, ce qui signifie que lorsque vous sélectionnez plusieurs images à faire correspondre, la moyenne des images est calculée.
Vous pouvez également écrire des requêtes SQL pour trouver un nombre spécifique d'images dans l'ensemble de données avec des étiquettes spécifiques. Cela peut être utile lorsque vous souhaitez voir un échantillon de 10 images de l'ensemble de données avec une étiquette telle que « chien ». Cela vous aide à vous faire une idée des données qui ont été annotées.
Une autre fonctionnalité intéressante est la fonction Ask AI. Si vous n'êtes pas compétent en SQL, elle vous permet d'utiliser la fonction de requête sans avoir besoin de SQL. Par exemple, vous pouvez demander à notre générateur de requêtes basé sur l'IA de vous montrer 100 images avec exactement une personne et 2 chiens, et il générera en interne la requête et vous montrera les résultats de la requête.
Ayush Chaurasia, conseiller chez Ultralytics, a déclaré : « Le plus intéressant, c'est que, comme l'API Ultralytics Explorer est elle-même open source, vous pouvez l'utiliser pour créer des applications de validation, d'exploration de jeux de données, et bien plus encore. » Consultez plus de détails sur Ultralytics Explorer ici.
Une nouvelle tâche YOLOv8 : Détection d'objets orientés
YOLOv8 franchit une étape importante en introduisant la détection d'objets orientés, également connue sous le nom d'OBB. Cette fonctionnalité avancée est conçue pour fournir des résultats de détection précis, en particulier pour les objets situés à différents angles et rotations.
Cela améliore la robustesse et la fiabilité de la détection, en particulier pour les objets inclinés comme les images de télédétection aérienne et la détection de texte. OBB se distingue par sa capacité à localiser avec précision les objets dans les images, minimisant ainsi l'inclusion de zones d'arrière-plan. Cette précision améliore considérablement la classification des objets en réduisant le bruit de fond.
Fig 4. Exemple d'une scène aérienne avec des boîtes englobantes orientées (OBB).
Jing Qiu, ingénieur en ML chez Ultralytics, partage ses idées sur notre dernière innovation : « Au cœur du nouveau modèle YOLOv8-OBB se trouve la base solide de notre modèle de détection YOLOv8. Bien qu'il intègre des paramètres et des calculs supplémentaires, nous avons veillé à ce que sa vitesse d'inférence reste rapide pour les applications en temps réel, reflétant les performances de nos modèles de détection standard. Il est convivial et partage la même API, mais il est marqué d'un simple signe 'obb', ce qui le rend extrêmement facile à entraîner, à valider, à prédire et à exporter, comme nos autres tâches. »
Nous sommes également ravis d'annoncer une compatibilité accrue pour l'entraînement d'un modèle sur l'ensemble de données DOTA v2. Plongez dans plus de détails iciet découvrez comment cela élargit les capacités de YOLOv8.
Amélioration des modèles de classification d'images
Bien qu'il soit essentiel d'ajouter de nouvelles tâches pour la prise en charge de YOLOv8, il est tout aussi essentiel d'améliorer et de perfectionner les tâches d'origine. Faisant écho à ce sentiment, la tâche de classification d'images prise en charge par YOLOv8 a été améliorée.
Fatih Akyon, ingénieur en ML chez Ultralytics, souligne : "Nous avons intégré des augmentations de classification SOTA dans les pipelines d'entraînement Ultralytics. Cela contribue à améliorer les scores de classification. Les modèles de classification yolov8 de base ont été réentraînés avec le nouveau pipeline."
Fig 5. Une image présentant la classification d'images.
Pour en savoir plus sur la capacité de YOLOv8 à classer les images, consultez cette page de documentation.
Nous acceptons les exemples soumis par les utilisateurs !
L'un des principaux succès de YOLOv8 en 2023 a été la quantité d'amour, de soutien et de contributions de notre communauté. Avec plus de 225 contributions à ce jour, nous sommes reconnaissants pour chacune d'entre elles qui a contribué à affiner et à améliorer YOLOv8. Votre précieuse contribution nous a incités à affiner et à peaufiner YOLOv8, le rendant plus adaptable et plus réactif aux divers besoins et défis dans divers secteurs.
Alors que nous entrons dans l'année 2024, nous sommes ravis d'élargir notre référentiel d'exemples proposés par les utilisateurs. Vos contributions sont essentielles pour répondre aux scénarios du monde réel où la vision par ordinateur peut être une solution. Nous vous invitons à collaborer en partageant vos cas d'utilisation innovants, vos réussites et vos implémentations uniques avec la communauté YOLOv8 au sens large. Vos contributions inspirent d'autres passionnés et guident YOLOv8 vers de nouveaux sommets.
Ensemble, construisons un référentiel dynamique d'exemples soumis par les utilisateurs qui mettent en valeur la polyvalence de YOLOv8 et reflètent la créativité de notre communauté. Vous pouvez trouver plus d'exemples et contribuer à notre référentiel ici. Si vous avez des questions sur la contribution, notre guide est là pour vous aider.
Merci pour votre soutien indéfectible, et nous sommes impatients d'assister à l'année incroyable qui s'annonce pour YOLOv8. Restez à l'écoute pour plus de mises à jour, d'innovations et de réalisations collaboratives. Vive une année incroyable ! 🚀