Exportation des modèles Ultralytics YOLO11 vers le format NCNN

Abirami Vina

5 minutes de lecture

18 juin 2025

Exportez les modèles YOLO11 d'Ultralytics vers le format de modèle NCNN pour exécuter des inférences d'IA efficaces et à faible latence sur des appareils périphériques dont la puissance et les ressources informatiques sont limitées.

Les solutions d'IA sont de plus en plus courantes, même dans des secteurs à fort enjeu comme la gestion des catastrophes, la gestion des déchets et la lutte contre les incendies. Au fur et à mesure de leur adoption, les modèles d'IA sont déployés dans des environnements de plus en plus variés, non seulement sur des serveurs ou dans le nuage, mais aussi directement sur des appareils fonctionnant sur le terrain.

Par exemple, les drones et les équipements dotés de composants de pointe alimentés par de petits processeurs peuvent jouer un rôle crucial dans les zones sinistrées. Équipés de caméras thermiques, ces appareils peuvent collecter et analyser des données sur place pour localiser les personnes coincées sous les décombres. Cela est possible grâce à la vision par ordinateur, une branche de l'intelligence artificielle qui interprète les informations visuelles à partir d'images et de vidéos.

Cependant, le déploiement de modèles Vision AI sur des appareils périphériques n'est pas aussi simple qu'il n'y paraît. Les modèles d'IA doivent être optimisés pour fonctionner efficacement sur du matériel dont la puissance de calcul et la mémoire sont limitées. C'est pourquoi les frameworks d'IA tels que NCNN sont essentiels. Ils permettent de convertir et d'optimiser les modèles pour des performances en temps réel sur des appareils à faible consommation, sans sacrifier la précision.

En particulier, les modèles Ultralytics YOLO comme Ultralytics YOLO11 peuvent être facilement exportés au format NCNN en utilisant l'intégration NCNN supportée par Ultralytics. La conversion de YOLO11 au format NCNN permet au modèle de s'exécuter plus rapidement, d'utiliser moins de mémoire et de fonctionner de manière fluide sur différents appareils sans perdre en précision.

Dans cet article, nous allons explorer l'intégration NCNN supportée par Ultralytics et voir comment vous pouvez exporter votre modèle YOLO11 au format NCNN. Commençons par le commencement !

Vue d'ensemble du NCNN : Un cadre de réseau neuronal léger

NCNN est un cadre d'inférence de réseau neuronal open-source développé par Tencent. Il a été spécialement conçu pour les environnements mobiles et périphériques, permettant une inférence de haute performance avec un encombrement minimal. Il est donc idéal pour le déploiement sur des appareils à ressources limitées tels que les smartphones, les drones et les appareils IoT (Internet des objets).

Le cadre NCNN a gagné en popularité dans la communauté de l'IA et de l'apprentissage profond en raison de son efficacité, de sa portabilité et de son optimisation pour les unités centrales de traitement mobiles (Central Processing Units). Il permet aux développeurs d'exécuter des modèles de réseaux neuronaux sur des appareils abordables dotés d'une mémoire et d'une puissance de traitement limitées. Conçu pour être simple et flexible, NCNN prend en charge une large gamme de modèles de vision par ordinateur et fonctionne sur plusieurs plateformes, notamment Android, Linux, iOS et macOS.

Fig. 1. Les modèles au format NCNN peuvent être déployés sur de nombreuses plateformes.

Principales caractéristiques de l'optimisation des performances du NCNN

Voici quelques-unes des principales caractéristiques qui font de NCNN un cadre d'inférence de réseaux neuronaux efficace et largement utilisé :

  • Temps d'exécution léger et indépendant du matériel : Le cadre NCNN est optimisé pour exécuter des modèles sur des unités centrales standard et ne nécessite pas de matériel spécialisé tel que des GPU (unités de traitement graphique) ou des NPU (unités de traitement neuronal).
  • Quantification du modèle: Pour les applications où la mémoire et la vitesse sont critiques, NCNN prend en charge les méthodes de quantification qui réduisent la taille du modèle et améliorent le temps d'inférence. Cela permet d'exécuter les modèles d'IA en douceur sur les appareils mobiles et embarqués.
  • Source ouverte et accessible : En tant que cadre open-source, NCNN est librement disponible pour que chacun puisse l'utiliser, le modifier et l'améliorer. Cela encourage l'innovation et l'adoption à grande échelle dans une variété de cas d'utilisation.
  • Développement actif et communauté: NCNN est activement maintenu sur GitHub par Tencent et une communauté de développeurs grandissante, avec des mises à jour régulières et des améliorations de la compatibilité des modèles.

Exportation de YOLO11 au format NCNN : Un guide rapide

Maintenant que nous avons discuté de ce qu'est NCNN, regardons de plus près comment exporter les modèles YOLO11 au format NCNN.

Etape 1 : Installer le paquetage Ultralytics Python

Avant d'exporter le modèle, la première étape consiste à installer le paquetage Python Ultralytics à l'aide de l'installateur de paquetages, pip. Cela peut être fait en exécutant "pip install ultralytics" dans votre terminal ou votre invite de commande. Si vous travaillez dans un Jupyter Notebook ou un Google Colab, ajoutez un point d'exclamation avant la commande, comme ceci : "!pip install ultralytics".

Le paquet Ultralytics fournit des outils pour former, tester, affiner et exporter des modèles Vision AI pour une variété de tâches de vision par ordinateur. Si vous rencontrez des problèmes lors de l'installation ou de l'exportation d'un modèle, la documentation officielle d'Ultralytics et le guide des problèmes courants sont d'excellentes ressources pour le dépannage.

Étape 2 : Exporter Ultralytics YOLO11

Après avoir installé le package Ultralytics, vous pouvez charger votre modèle YOLO11 et l'exporter au format NCNN. L'exemple ci-dessous utilise un modèle pré-entraîné ("yolo11n.pt") et l'exporte au format NCNN, en enregistrant la sortie dans un dossier nommé "/yolo11n_ncnn_model". 

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="ncnn")  

Le modèle YOLO11 exporté peut ensuite être déployé sur divers appareils légers tels que des smartphones, des systèmes embarqués ou des plateformes IoT. Le processus de déploiement est également très rationalisé. 

Par exemple, l'extrait de code ci-dessous montre comment charger le modèle exporté et exécuter l'inférence. L'inférence fait référence au processus d'utilisation d'un modèle formé pour faire des prédictions sur de nouvelles données inédites. Dans cet exemple, le modèle est testé sur l'image d'un homme à vélo, extraite d'une URL publique.

ncnn_model = YOLO("./yolo11n_ncnn_model")

results = ncnn_model("https://images.pexels.com/photos/19431209/pexels-photo-19431209/free-photo-of-a-man-riding-a-bike-on-a-road.jpeg?auto=compress&cs=tinysrgb&w=1260&h=750&dpr=2.jpg", save=True)

Après avoir exécuté le code, vous trouverez l'image de sortie dans le dossier "runs/detect/predict".

Fig. 2. Détection d'objets à l'aide d'un modèle YOLO11 exporté au format NCNN. Image de l'auteur.

Pourquoi choisir la détection en temps réel avec NCNN

En explorant les différentes intégrations prises en charge par Ultralytics, vous remarquerez peut-être qu'il existe plusieurs options d'exportation disponibles. Alors, quand devriez-vous choisir le format NCNN ?

Le format d'exportation NCNN est un choix fiable lorsque vous devez déployer des modèles YOLO11 sur des appareils aux ressources limitées. Il est particulièrement utile pour les applications en temps réel qui s'exécutent directement sur l'appareil, comme les appareils périphériques, sans avoir besoin d'une connexion au nuage. Cela signifie que le modèle peut gérer des tâches telles que la détection d'objets directement sur place.

Voici quelques scénarios courants dans lesquels NCNN est parfaitement adapté :

  • Déploiement mobile : Le format NCNN est optimisé pour Android et iOS, ce qui facilite l'intégration des modèles dans les applications mobiles pour une inférence rapide sur l'appareil avec une latence minimale.
  • Systèmes embarqués et appareils IoT : Si vous déployez des appareils tels que Raspberry Pi ou NVIDIA Jetson, l'exportation vers NCNN peut contribuer à améliorer les performances et la réactivité.
  • Déploiement d'ordinateurs de bureau et de serveurs : Bien que NCNN soit idéal pour les appareils à faible consommation, il prend également en charge Linux, Windows et macOS pour les environnements de bureau et de serveur. Les développeurs disposent ainsi d'options de déploiement flexibles.
Fig. 3. Options pour le déploiement du modèle YOLO11 avec NCNN. Image de l'auteur.

Cas d'utilisation du déploiement du modèle YOLO11 avec NCNN

Passons maintenant à quelques cas pratiques où l'exportation de modèles YOLO11 vers NCNN peut faire une réelle différence.

Casques Vision AI pour la lutte contre les incendies

Les casques de sécurité équipés de caméras et de micro-ordinateurs intégrés peuvent être utilisés dans des domaines tels que la construction et la lutte contre les incendies pour améliorer la sécurité et la sensibilisation. Des modèles d'IA de vision en temps réel, comme YOLO11, peuvent être exécutés sur ces dispositifs pour détecter divers types d'objets et d'équipements. Par exemple, ces casques peuvent aider les pompiers à détecter les personnes, les obstacles ou les dangers dans des conditions de faible visibilité.

Cependant, l'exécution de modèles complets directement sur des dispositifs portables peut entraîner des performances lentes et épuiser rapidement la batterie. Dans ce cas, l'utilisation de l'intégration NCNN est un choix judicieux. Elle permet une inférence à faible latence et économe en énergie. 

Classification des déchets et poubelles intelligentes

De même, les poubelles intelligentes peuvent être intégrées à des caméras et à des processeurs d'intelligence artificielle compacts pour identifier et trier les matériaux au fur et à mesure qu'ils sont jetés. Les modèles d'IA de vision comme YOLO11 peuvent être formés sur mesure pour détecter différents types de déchets comme le papier, le plastique, le caoutchouc, etc.

Une fois les déchets identifiés, ils peuvent être automatiquement triés dans des compartiments distincts en fonction de leur réutilisation. Grâce à l'utilisation de l'intelligence artificielle et des modèles YOLO11 exportés au format NCNN, ces poubelles peuvent traiter les données localement, sans avoir besoin d'une connexion internet. Cela leur permet de fonctionner de manière autonome et de prendre des décisions de tri en temps réel avec un délai minimal.

Fig. 4. Détection de déchets plastiques à l'aide de YOLO11.

Surveillance du bétail à l'aide de drones et de la vision par ordinateur

Parfois, les zones agricoles situées dans des endroits reculés n'ont pas accès à des connexions internet stables ou même à une alimentation électrique constante, ce qui limite leur capacité à exécuter des applications d'IA en ligne. Dans de tels cas, les appareils périphériques et les drones peuvent être utilisés pour gérer une variété de tâches. 

Un bon exemple est la surveillance du bétail comme les bovins, les moutons et la volaille. Pour ce faire, on peut utiliser des modèles Vision AI tels que YOLO11, qui permettent de suivre les mouvements des animaux, de détecter les signes de blessure, de maladie ou de comportement anormal, et d'alerter les éleveurs en cas de disparition des animaux. L'intégration de NCNN permet également d'exécuter et de traiter ces données directement sur des appareils périphériques, ce qui en fait un outil idéal pour l'analyse d'images et de vidéos dans les exploitations agricoles situées dans des zones éloignées ou hors réseau.

Fig. 5. Exemple d'utilisation de YOLO11 pour surveiller le bétail.

Principaux enseignements

L'exportation de modèles YOLO11 à l'aide de l'intégration NCNN prise en charge par Ultralytics est un moyen simple d'apporter Vision AI aux environnements à faible consommation d'énergie. Qu'il s'agisse de drones dans les zones sinistrées, de poubelles intelligentes pour le tri des déchets ou de la surveillance du bétail dans les fermes éloignées, YOLO et NCNN permettent des inférences d'IA en temps réel qui sont rapides, efficaces et portables. Cette approche contribue à rendre les systèmes d'IA plus accessibles et plus fiables au moment où cela compte le plus.

Vous souhaitez en savoir plus sur l'IA ? Explorez notre dépôt GitHub, entrez en contact avec notre communauté et consultez nos options de licence pour démarrer votre projet de vision par ordinateur. Découvrez comment des innovations telles que l 'IA dans le commerce de détail et la vision par ordinateur dans les soins de santé façonnent l'avenir sur nos pages de solutions.

Construisons ensemble le futur
de l'IA !

Commencez votre voyage avec l'avenir de l'apprentissage automatique

Commencer gratuitement
Lien copié dans le presse-papiers