Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024

Créer des applications de drone basées sur l'IA avec Ultralytics YOLO11

Abirami Vina

4 min de lecture

18 avril 2025

Découvrez comment créer des applications de drone basées sur l'IA avec Ultralytics YOLO11, permettant la détection d'objets en temps réel et les tâches de vision par ordinateur basées sur des drones.

Le shopping en magasin et le shopping en ligne peuvent sembler similaires, mais ils reposent sur des logistiques différentes. Les magasins ont besoin de rayons réapprovisionnés, tandis que les commandes en ligne dépendent des livraisons à domicile. Grâce aux avancées technologiques, les deux expériences d'achat sont en train d'être remodelées en parallèle.

Par exemple, un changement majeur est en train de se produire dans les livraisons. Les drones alimentés par l'IA sont en train de changer la façon dont les produits arrivent à nos domiciles. Ces drones intelligents devraient effectuer environ 808 millions de livraisons au cours de la prochaine décennie, transformant le ciel en la nouvelle voie de livraison pour le commerce quotidien.

Les drones de livraison utilisent l'intelligence artificielle (IA) et la vision par ordinateur, un sous-domaine de l'IA qui est utilisé pour analyser les données visuelles, afin de naviguer et de manœuvrer autour des obstacles. Les modèles de vision par ordinateur tels que Ultralytics YOLO11 peuvent aider les drones à détecter et à suivre des objets en temps réel, ce qui leur permet de mieux comprendre et d'interagir avec leur environnement.

Fig 1. Un drone de livraison transportant un colis vers sa destination.

Des entreprises comme Meituan et DJI intègrent déjà la vision par ordinateur dans leurs drones. En fait, l'adoption rapide des drones dans divers secteurs a préparé le marché des drones IA à une croissance fulgurante, atteignant 206,9 milliards de dollars d'ici 2031. 

Dans cet article, nous allons examiner de plus près comment les modèles de vision par ordinateur tels que Ultralytics YOLO11 peuvent être utilisés dans des applications basées sur des drones, comme les livraisons par drone. Nous allons passer en revue un exemple qui montrera comment ces technologies peuvent être développées et testées avant d'être utilisées dans des scénarios réels.

Utilisation d'Ultralytics YOLO11 sur des drones pour détecter des maisons

Un élément clé des drones de livraison est leur capacité à détecter les maisons lors de leur navigation. Pour recréer cette capacité et comprendre son fonctionnement, nous allons entraîner un modèle de vision par ordinateur capable d'identifier les maisons dans les images capturées par un drone aérien. Nous allons entraîner sur mesure YOLO11 pour cela, ce qui implique d'affiner un modèle YOLO11 pré-entraîné pour reconnaître et détecter les maisons en utilisant des exemples étiquetés.

Pour ce faire, nous aurons besoin de données vidéo de haute qualité provenant d'un drone. Il est intéressant de noter que, même sans accès à un vrai drone, nous pouvons toujours générer des séquences aériennes réalistes. Regardons comment.

Création d'une prise de vue de drone artificielle à l'aide de Google Earth Studio

Google Earth Studio est un outil d'animation en ligne qui peut être utilisé par les utilisateurs pour créer du contenu fixe et animé à l'aide d'images satellites et 3D de Google Earth. Nous pouvons l'utiliser pour créer des séquences aériennes réalistes.

La première étape consiste à ouvrir Google Earth Studio et à créer un projet, comme indiqué ci-dessous. 

Vous aurez besoin d'un compte Google pour vous connecter.

Fig. 2. Création d'un projet sur Google Earth Studio.

Une fois connecté, vous pouvez choisir un emplacement pour votre vidéo de drone artificielle. En utilisant la barre de recherche dans le coin supérieur gauche de la page, vous pouvez rechercher des emplacements. Pour ce tutoriel, nous choisirons le Canada. De plus, puisque nous allons entraîner un modèle pour détecter les maisons, notre vidéo de drone devrait avoir une vue aérienne des maisons.

Fig 3. Sélection d'un emplacement à l'aide de Google Earth Studio.

Ensuite, nous pouvons définir les première et dernière trames temporelles pour capturer le mouvement de la prise de vue artificielle du drone. Une fois que vous avez choisi l'emplacement de départ de la prise de vue du drone, définissez la première image à l'aide des losanges bleus, comme indiqué ci-dessous. 

Fig. 4. Définition de la première image à l'aide des losanges bleus.

Ensuite, nous pouvons choisir la dernière image pour déterminer la destination du drone. Cela nous aidera à créer un effet de mouvement pour les images du drone. Pour ce faire, faites glisser la barre (mise en évidence ci-dessous) vers la droite jusqu'à un moment précis afin de créer l'effet de mouvement pour la prise de vue du drone. Une fois de plus, utilisez les losanges bleus pour définir le dernier point.

Fig 5. Définition de la dernière image en déplaçant la barre.

Enfin, vous pouvez enregistrer ce projet et le rendre en cliquant sur le bouton rouge “Render” dans le coin supérieur droit de la page. Cela vous donnera la sortie vidéo finale de la prise de vue du drone, créant ainsi avec succès des séquences vidéo artificielles de drone.

Fig 6. Rendu de la vidéo de sortie finale.

Comment étiqueter les données de drone ?

Maintenant que nous avons créé des séquences vidéo artificielles de drones, l'étape suivante consiste à étiqueter ou annoter les maisons qui s'y trouvent. Nous devrons également séparer les images individuelles de la vidéo. 

Pour commencer, nous allons installer LabelImg. LabelImg est un outil de marquage d'images open source. Vous pouvez l'installer directement depuis le terminal à l'aide du gestionnaire de paquets pip en exécutant la commande suivante : « pip install labelImg ».

Après l'installation, vous pouvez exécuter l'outil en utilisant la commande ‘labelImg’ sur votre terminal ou invite de commande. Cela vous amènera à la page illustrée ci-dessous.

Fig 7. L'interface de l'outil LabelImg.

Parallèlement, nous pouvons soit utiliser un convertisseur vidéo en images en ligne, soit un outil appelé FFmpeg pour diviser la vidéo en images. FFmpeg est une collection de bibliothèques et d'outils permettant de traiter du contenu multimédia tel que l'audio, la vidéo, les sous-titres et les métadonnées associées. 

Vous pouvez utiliser la commande de terminal suivante pour séparer chaque image de la vidéo prise par drone :

Une fois que nous avons séparé les images des séquences de drone, nous pouvons commencer à étiqueter les objets (maisons) qu'elles contiennent. En naviguant vers le dossier d'images via l'outil LabelImg, nous pouvons étiqueter les objets dans chaque image. Assurez-vous d'enregistrer et de vérifier chaque image étiquetée. Après avoir annoté les images, nous pouvons maintenant passer à l'entraînement de YOLO11 en utilisant ces données.

Fig 8. Un exemple d'enregistrement d'images annotées.

Workflow d'entraînement du modèle YOLO11

Avant de commencer l'entraînement de YOLO11, nous allons organiser nos images et nos étiquettes. Commencez par créer deux dossiers : un nommé "train" et l'autre "valid". Répartissez vos images entre ces dossiers. À l'intérieur de chacun, créez des sous-dossiers distincts pour les images et leurs fichiers d'étiquettes correspondants (format texte), comme indiqué ci-dessous.

Fig 9. Un exemple de création de dossiers d'images et d'étiquettes.

Ensuite, nous pouvons commencer à entraîner le modèle YOLO11 comme suit :

  • Étape 1 : Installez le paquet Python Ultralytics. Vous pouvez le faire en exécutant la commande « pip install ultralytics » dans votre terminal. Si vous rencontrez des problèmes d’installation, consultez notre guide de dépannage pour obtenir des conseils et des astuces pour vous aider à les résoudre.
  • Étape 2 : Après avoir installé le paquet avec succès, créez un fichier nommé ‘data.yaml’. Il s’agit d’un fichier de configuration essentiel pour l’entraînement du modèle. Dans le fichier data.yaml, incluez les informations suivantes : le chemin d’accès à votre ensemble de données d’entraînement, le chemin d’accès à votre ensemble de données de validation, le nombre de classes (nc) et une liste des noms de classes (names), comme indiqué ci-dessous.
Fig. 10. Un exemple de fichier data.yaml.

  • Étape 3 : Une fois le fichier ‘data.yaml’ configuré, vous pouvez commencer à entraîner votre modèle à l’aide du code Python suivant. Ce code charge le modèle YOLO11 pré-entraîné et l’entraîne conformément à vos configurations.
from ultralytics import YOLO

# Load a YOLO11 model
model = YOLO("yolo11n.pt")  # choose your model, e.g., YOLO11 nano

# Train the model with your data and settings
model.train(data="data.yaml", epochs=100, imgsz=640)
  • Étape 4 : Une fois l’entraînement terminé, vous devriez voir une sortie similaire à celle indiquée ci-dessous. Cela signifie que vous avez entraîné avec succès votre modèle YOLO11 pour des applications basées sur des drones.
Fig. 11. La sortie affichée après l'entraînement du modèle.

Exécution de prédictions à l'aide d'Ultralytics YOLO11 sur des drones

Le modèle YOLO11 entraîné peut maintenant être utilisé pour faire des prédictions grâce à un processus appelé inférence. L'inférence consiste à utiliser un modèle pour analyser de nouvelles données non vues, en se basant sur ce qu'il a appris pendant l'entraînement. Dans ce cas, le modèle peut être utilisé pour trouver et étiqueter des objets spécifiques, comme des maisons, dans des images ou des vidéos en dessinant des boîtes englobantes autour d'eux.

Pour exécuter une prédiction, vous pouvez utiliser le modèle YOLO11 entraîné sur une vidéo d'entrée en utilisant le code Python suivant. Dans cet exemple, nous utiliserons la même vidéo de drone artificielle que celle utilisée pour l'entraînement, mais vous pouvez utiliser n'importe quel autre fichier vidéo si vous préférez.

# Import library
from ultralytics import YOLO

# Load the YOLO model
model = YOLO("best.pt")  # Choose your custom-trained model

# Predict the results from the model
results = model.predict(source="path/to/original/video.mp4", show=True, save=True)

Après avoir exécuté ce code, le fichier vidéo de sortie avec les prédictions et les boîtes englobantes sera enregistré.

Fig. 12. Une image extraite du fichier vidéo de sortie. 

Intégration d'Ultralytics YOLO11 sur des drones pour diverses applications

La détection de maisons pour la livraison de colis par drone n'est qu'un exemple de la façon dont la vision par ordinateur et YOLO11 peuvent être appliqués. Voici quelques autres utilisations concrètes de la vision par ordinateur, de YOLO11 et des drones aériens :

  • Surveillance et sécurité : Les drones IA peuvent être utilisés pour surveiller de vastes zones en temps réel. Ils peuvent détecter les intrusions, suivre les activités suspectes et renforcer la sécurité aux frontières nationales ainsi que lors de grands événements publics. 
  • Intervention en cas de catastrophe et recherche et sauvetage : Équipés de caméras thermiques et de la détection d'objets, les drones peuvent aider à localiser les survivants dans les zones sinistrées. Ils peuvent également évaluer les dégâts et livrer des fournitures d'urgence.
  • Agriculture et agriculture de précision : Les drones intégrés à la vision par ordinateur peuvent être utilisés pour analyser la santé des cultures et détecter les maladies, aidant ainsi les agriculteurs à augmenter les rendements tout en réduisant les coûts. 
  • Cartographie et analyse géospatiale : En collectant des cartes 3D haute résolution, les drones IA peuvent aider à la planification urbaine et aux levés topographiques. Ils fournissent des évaluations de terrain plus rapides et plus précises que les méthodes traditionnelles. 

Principaux points à retenir

Les drones IA alimentés par la vision par ordinateur transforment de nombreux secteurs, de la livraison de colis à l'aide en cas d'urgence et à l'agriculture. Dans ce guide, nous avons expliqué comment créer une vidéo de drone artificielle, étiqueter les objets qu'elle contient, entraîner YOLO11 et l'utiliser pour détecter les maisons.

L'application de la détection d'objets aux images de drones rend ces drones plus intelligents, leur permettant de reconnaître et de suivre automatiquement des objets en temps réel. À mesure que la technologie s'améliore, les drones pilotés par l'IA joueront probablement un rôle encore plus important dans l'accélération des livraisons, l'amélioration de la sécurité et l'aide à la réponse aux catastrophes.

Rejoignez notre communauté et explorez notre répertoire GitHub pour en savoir plus sur l'IA de vision, et consultez nos options de licence pour lancer vos projets de vision par ordinateur. Intéressé par les innovations telles que l'IA dans la fabrication ou la vision par ordinateur dans l'industrie automobile ? Visitez nos pages de solutions pour en savoir plus. 

Construisons ensemble l'avenir
de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique

Démarrer gratuitement
Lien copié dans le presse-papiers