Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant

Exécution des modèles de détection et de segmentation d'objets Ultralytics en quelques lignes de code

Nuvola Ladi

3 min de lecture

27 juin 2024

Un guide étape par étape sur la façon d'exécuter les modèles de détection et de segmentation d'objets Ultralytics en quelques lignes de code.

Bienvenue dans un nouvel article de blog où nous explorerons les capacités des modèles YOLOv5 d'Ultralytics et YOLOv8 en matière de détection d'objets et de segmentation. Nous verrons comment intégrer ces modèles faciles à utiliser dans vos projets avec seulement quelques lignes de code. Que vous soyez débutant ou développeur expérimenté, vous découvrirez comment Ultralytics prend en charge divers modèles et architectures, y compris différentes versions de YOLO et des modèles basés sur des transformeurs. 

Dans sa vidéo, Nicolai Nielsen nous guide à travers le processus de configuration et d'utilisation de divers modèles au sein du framework Ultralytics. Décomposons cela étape par étape et voyons comment vous pouvez démarrer avec ces outils incroyables.

Premiers pas avec les modèles Ultralytics

Ultralytics offre un framework complet qui prend en charge plusieurs modèles de détection d'objets et de segmentation. Cela inclut les modèles YOLO populaires, allant de YOLOv3 au dernier YOLOv8, ainsi que les modèles YOLO-NAS et SAM. Ces modèles sont conçus pour gérer une variété de tâches telles que la détection en temps réel, la segmentation et l'estimation de pose.

Pour commencer, consultez la page de documentation Ultralytics. Vous y trouverez des informations détaillées sur chaque modèle, y compris leurs principales caractéristiques, leurs architectures et comment les utiliser dans vos scripts Python.

Configuration de votre environnement

Tout d'abord, assurez-vous qu'Ultralytics est installé. Vous pouvez le faire en exécutant :

bash

Copier le code

Une fois cela fait, vous pouvez commencer à utiliser ces modèles dans vos projets. Commençons par le modèle YOLOv8 à titre d'exemple.

Principales caractéristiques de YOLOv8

YOLOv8 est livré avec plusieurs améliorations par rapport à ses prédécesseurs. Il est conçu pour être plus rapide et plus précis, ce qui le rend parfait pour les applications en temps réel. Voici quelques caractéristiques principales : 

  • Vitesse et précision améliorées
  • Poids pré-entraînés pour plusieurs tâches
  • Prise en charge de la détection d'objets, de la segmentation et de la classification
  • Architecture de modèle améliorée pour de meilleures performances

Exécution de YOLOv8 en Python

Voici comment vous pouvez démarrer avec YOLOv8 en quelques lignes de code :

Copier le code

Voilà ! Vous venez d'exécuter un modèle YOLOv8 sur une image. Cette simplicité est ce qui rend les modèles Ultralytics si puissants et conviviaux.

Détection en direct via webcam

Vous voulez voir YOLOv8 en action sur un flux webcam en direct ? Voici comment vous pouvez le faire :

python

Copier le code

Ce script ouvrira votre webcam et appliquera le modèle YOLOv8 pour détecter les objets en temps réel.

__wf_reserved_inherit
Fig 1. Nicolai Nielsen expliquant comment exécuter les modèles de détection d'objets et de segmentation d'Ultralytics.

Explorer d'autres modèles

Ultralytics ne s'arrête pas seulement à YOLOv8. Ils prennent également en charge divers autres modèles tels que YOLOv5, YOLO-NAS et des modèles basés sur des transformeurs pour la détection en temps réel. Chaque modèle a ses propres forces et cas d'utilisation.

Modèles de transformeurs et comment les exécuter

Le modèle RT-DETR développé par Baidu et pris en charge par Ultralytics, est un détecteur d'objets de pointe, de bout en bout, qui offre des performances en temps réel et une grande précision. Il utilise un backbone basé sur Conv et un encodeur hybride efficace pour une vitesse en temps réel, excelle sur CUDA avec TensorRT, et prend en charge l'ajustement flexible de la vitesse d'inférence.

Voici comment vous pouvez exécuter un modèle RT-DETR :

Copier le code

Segment Anything Models

Ultralytics propose également des modèles pour les tâches de segmentation, tels que MobileSAM et FastSAM. Ces modèles sont conçus pour segmenter tout ce qui se trouve dans une image, fournissant des informations détaillées sur la scène.

Exécution de FastSAM

FastSAM est optimisé pour la segmentation en temps réel, et voici comment vous pouvez l'exécuter :

Copier le code

Ce modèle est parfait pour les applications qui nécessitent une segmentation rapide et précise.

Performances et comparaisons

L'une des grandes caractéristiques du framework Ultralytics est la possibilité de comparer différents modèles côte à côte. Vous pouvez facilement déterminer quel modèle fonctionne le mieux pour votre application spécifique en examinant les métriques de performance telles que la vitesse d'inférence et la précision moyenne (mAP).

Principaux points à retenir

Ultralytics facilite incroyablement l'exécution de modèles de détection d'objets et de segmentation avec seulement quelques lignes de code. Que vous travailliez sur des applications en temps réel ou que vous ayez besoin de modèles de haute précision, Ultralytics a une solution pour vous. Assurez-vous de consulter le tutoriel complet de Nicolai Nielsen sur la chaîne YouTube d'Ultralytics pour obtenir des informations et des exemples plus approfondis.

Restez à l'écoute pour plus de tutoriels et de mises à jour de la communauté Ultralytics !

Construisons ensemble l'avenir
de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique

Démarrer gratuitement
Lien copié dans le presse-papiers