Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant

Intégration d'Ultralytics YOLO11 aux appareils Apple via CoreML

Abirami Vina

4 min de lecture

30 juillet 2025

Voyez comme il est facile d'intégrer Ultralytics YOLO11 aux appareils Apple avec CoreML et d'activer des tâches de vision par ordinateur hors ligne rapides pour les applications iOS en temps réel.

Avec l'introduction par Apple de fonctionnalités telles que Apple Intelligence, il est clair que l'IA embarquée devient un élément central de la façon dont nous utilisons nos téléphones. Pour les développeurs, ce changement signifie que les utilisateurs adoptent des applications iOS qui utilisent des capacités telles que la vision par ordinateur pour offrir des expériences plus intelligentes et plus réactives.

L'vision par ordinateur est un type d'intelligence artificielle (IA) qui permet aux ordinateurs de comprendre et d'analyser des informations visuelles, telles que des images ou des vidéos. Sur les appareils mobiles, elle peut être utilisée en temps réel pour détecter, classifier et interagir avec des objets via la caméra du téléphone. Les modèles de Vision IA comme Ultralytics YOLO11 peuvent être entraînés sur mesure pour reconnaître des objets spécifiques, en fonction des besoins de votre application. 

Cependant, YOLO11 n'est pas configuré pour fonctionner sur iOS dès sa sortie de la boîte. Pour déployer YOLO11 sur les iPhones ou autres appareils Apple, en particulier pour une utilisation hors ligne, il doit être converti dans un format optimisé pour l'écosystème d'Apple. 

C'est exactement le type de problème que CoreML a été conçu pour résoudre. CoreML est le framework d'apprentissage automatique d'Apple, conçu pour exécuter des modèles localement et s'intégrer de manière transparente aux applications iOS et macOS. L'intégration de CoreML, prise en charge par Ultralytics, facilite l'exportation de votre modèle pour un déploiement local sur les iPhones.

Dans cet article, nous allons examiner de plus près comment exporter votre modèle YOLO11 au format CoreML. Nous explorerons également des cas d'utilisation en temps réel qui montrent les avantages de l'exécution de modèles de vision par ordinateur directement sur les appareils iOS. Commençons !

Qu'est-ce que CoreML ?

CoreML est un framework d'apprentissage automatique (ML) développé par Apple qui permet aux développeurs d'intégrer des modèles ML entraînés directement dans les applications de l'écosystème Apple, notamment iOS (iPhone et iPad), macOS (Mac), watchOS (Apple Watch) et tvOS (Apple TV). Il est conçu pour rendre l'apprentissage automatique accessible et efficace sur les appareils Apple en permettant aux modèles de s'exécuter directement sur l'appareil, sans nécessiter de connexion Internet.

Au cœur de CoreML se trouve un format de modèle unifié qui prend en charge un large éventail de tâches d'IA telles que la classification d'images, la détection d'objets, la reconnaissance vocale et le traitement du langage naturel. Le framework est optimisé pour tirer le meilleur parti du matériel d'Apple, en utilisant le CPU (unité centrale de traitement), le GPU (unité de traitement graphique) et l'ANE (Apple Neural Engine) pour exécuter les modèles rapidement et efficacement.

CoreML prend en charge une variété de types de modèles et est compatible avec les bibliothèques d'apprentissage automatique populaires, notamment TensorFlow, PyTorch, scikit-learn, XGBoost et LibSVM. Cela permet aux développeurs d'intégrer plus facilement des fonctionnalités ML avancées dans les applications courantes, tout en garantissant leur bon fonctionnement sur les appareils Apple.

Fig. 1. CoreML prend en charge les modèles d'autres frameworks d'IA populaires (Source).

Principales caractéristiques de CoreML

Voici quelques-unes des principales caractéristiques qui font de CoreML un outil fiable pour l'intégration de l'IA dans les applications Apple :

  • Optimisation du modèle: CoreML prend en charge des techniques de compression telles que la quantification et l'élagage pour réduire la taille du modèle et améliorer l'efficacité de l'exécution.
  • Personnalisation sur l'appareil : Le framework ML d'Apple prend en charge la personnalisation sur l'appareil, permettant aux modèles d'être entraînés et mis à jour localement en fonction des interactions de l'utilisateur.
  • Prédictions asynchrones : Ce framework permet à votre application d'exécuter des prédictions en arrière-plan, ce qui assure une interface utilisateur fluide et réactive tout en gérant les tâches d'IA.
  • Apprentissage multi-tâches : CoreML prend en charge les modèles capables d'effectuer plusieurs tâches simultanément, comme la détection d'objets et la reconnaissance de texte dans la même image.

Comment exporter YOLO11 au format CoreML

Maintenant que nous comprenons mieux le framework CoreML, voyons comment utiliser l'intégration CoreML prise en charge par Ultralytics pour exporter un modèle YOLOv8 au format CoreML.

Étape 1 : Configuration de votre environnement

Pour accéder aux fonctionnalités d'intégration fournies par Ultralytics, commencez par installer le package Python Ultralytics. Il s'agit d'une bibliothèque légère et facile à utiliser qui simplifie les tâches telles que l'entraînement, l'évaluation, la prédiction et l'exportation des modèles YOLO d'Ultralytics.

Vous pouvez installer le paquet Python Ultralytics en exécutant “pip install ultralytics” dans votre terminal de commande. Si vous utilisez un environnement tel que Jupyter Notebook ou Google Colab, incluez un point d'exclamation (!) avant la commande : “!pip install ultralytics”.

Si vous rencontrez des problèmes lors de l'installation ou de l'exportation vers CoreML, consultez la documentation officielle d'Ultralytics ou le guide des problèmes courants pour obtenir de l'aide.

Étape 2 : Exporter YOLO11 vers CoreML

Une fois le paquet installé avec succès, vous êtes prêt à charger un modèle YOLO11 et à le convertir au format CoreML.

Si vous n'êtes pas sûr du modèle YOLO11 pré-entraîné à utiliser, vous pouvez explorer la gamme de modèles pris en charge par Ultralytics. Chacun offre un équilibre différent entre vitesse, taille et précision, et vous pouvez choisir celui qui convient le mieux à votre projet. Vous pouvez également utiliser un modèle YOLO11 entraîné sur mesure si vous en avez entraîné un sur votre propre jeu de données.

Dans l'extrait de code ci-dessous, un fichier de modèle YOLO11 pré-entraîné nommé "yolo11n.pt" est utilisé. Pendant le processus d'exportation, il est converti en un package CoreML appelé "yolo11n.mlpackage".

Le modèle « yolo11n » est la version nano, optimisée pour la vitesse et la faible utilisation des ressources. En fonction des besoins de votre projet, vous pouvez également choisir d'autres tailles de modèle telles que « s » pour petit, « m » pour moyen, « l » pour grand ou « x » pour très grand. Chaque version offre un équilibre différent entre performance et précision.

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="coreml")

Étape 3 : Exécution de l’inférence à l’aide du modèle CoreML exporté

Après l'exportation au format CoreML, YOLO11 peut être facilement intégré dans les applications iOS, permettant des tâches de vision par ordinateur en temps réel telles que la détection d'objets sur des appareils tels que les iPhones, iPads et Macs.

Par exemple, l'extrait de code ci-dessous montre comment charger le modèle CoreML exporté et effectuer l'inférence. L'inférence est le processus d'utilisation d'un modèle entraîné pour faire des prédictions sur de nouvelles données. Dans ce cas, le modèle analyse une image d'une famille jouant avec un ballon.

coreml_model = YOLO("yolo11n.mlpackage")

results = coreml_model("https://images.pexels.com/photos/4933841/pexels-photo-4933841.jpeg", save=True)

Après avoir exécuté le code, l'image de sortie sera enregistrée dans le dossier "runs/detect/predict".

Fig. 2. Utilisation d'un modèle YOLO11 exporté au format CoreML pour détecter des objets. Image par l'auteur.

Où les modèles CoreML exportés peuvent-ils être utilisés ?

L'exportation de YOLO11 vers CoreML apporte la flexibilité nécessaire pour créer diverses applications de vision artificielle qui peuvent fonctionner efficacement sur les iPhones, les iPads et les Macs. Ensuite, examinons quelques scénarios réels où cette intégration peut être particulièrement utile.

Applications de réalité augmentée et de jeux vidéo basées sur des modèles CoreML

La réalité augmentée (RA) mélange le contenu numérique avec le monde réel en superposant des éléments virtuels sur des vues de caméra en direct. Elle est en train de devenir un élément clé des jeux mobiles, créant ainsi des expériences plus interactives et immersives.

Avec YOLO11 exporté au format CoreML, les développeurs iOS peuvent créer des jeux AR qui reconnaissent des objets du monde réel comme des bancs, des arbres ou des panneaux à l'aide de l'appareil photo du téléphone. Le jeu peut ensuite superposer des éléments virtuels, tels que des pièces de monnaie, des indices ou des créatures, sur ces objets pour améliorer l'environnement du joueur.

En coulisses, cela fonctionne grâce à la détection et au suivi d'objets. YOLO11 détecte et identifie les objets en temps réel, tandis que le suivi maintient ces objets en vue lorsque la caméra se déplace, garantissant que les éléments virtuels restent alignés sur le monde réel.

Les joueurs peuvent pointer leur téléphone, explorer leur environnement et interagir avec ce qu'ils voient pour collecter des objets ou relever des défis rapides. Tout cela peut fonctionner directement sur l'appareil sans avoir besoin d'une connexion Internet, ce qui rend l'expérience fluide et attrayante.

Applications iOS intégrées à des modèles CoreML pour l’ANPR en temps réel

La reconnaissance automatique des plaques d'immatriculation (ANPR) est une application de vision par ordinateur utilisée pour détecter et lire les plaques d'immatriculation des véhicules. Elle est couramment utilisée dans les systèmes de sécurité, de surveillance du trafic et de contrôle d'accès. Avec CoreML et des modèles comme YOLO11, l'ANPR peut désormais fonctionner efficacement sur les appareils iOS. 

Avoir une application ANPR sur votre iPhone peut être particulièrement utile dans les environnements axés sur la sécurité. Par exemple, elle peut aider les équipes à déterminer rapidement si un véhicule entrant dans une zone restreinte est autorisé ou non.

Une telle application peut utiliser un modèle de Vision IA tel que YOLO11, intégré via CoreML, pour détecter les véhicules et localiser leurs plaques d'immatriculation en temps réel à l'aide de la caméra de l'appareil. Une fois une plaque détectée, la technologie de reconnaissance optique de caractères (OCR) peut lire le numéro d'immatriculation. L'application peut ensuite comparer ce numéro à une base de données locale ou basée sur le cloud pour vérifier l'accès ou signaler les véhicules non autorisés.

Fig. 3. L'IA de vision peut être utilisée pour détecter et lire les numéros de plaques d'immatriculation. (Source).

Les applications axées sur l'accessibilité peuvent exploiter les modèles CoreML

L'IA a eu un impact considérable sur l'accessibilité, contribuant à éliminer les obstacles pour les personnes malvoyantes. Grâce à des outils tels que CoreML et des modèles de vision par ordinateur comme YOLO11, les développeurs peuvent créer des applications iOS qui décrivent le monde qui entoure les utilisateurs en temps réel, ce qui facilite les tâches quotidiennes et favorise l'autonomie.

Par exemple, une personne malvoyante peut pointer la caméra de son iPhone sur son environnement. L'application utilise la détection d'objets pour reconnaître les éléments clés, comme les véhicules, les personnes ou les panneaux de signalisation, et raconte ce qu'elle voit. Cela peut être utilisé dans des situations telles que la navigation dans une rue animée ou la compréhension d'une urgence.

Fig. 4. Un exemple d'utilisation de YOLO11 pour détecter des personnes

Principaux points à retenir

L'exportation de YOLO11 au format CoreML crée de nouvelles opportunités pour les applications en temps réel, y compris la détection d'objets hors ligne sur les appareils iOS. De l'agriculture à la sécurité en passant par l'accessibilité, cette combinaison permet aux développeurs de créer des applications intelligentes, efficaces et axées sur la confidentialité qui fonctionnent entièrement sur l'appareil.

En quelques étapes simples, vous pouvez convertir votre modèle YOLO11 et ajouter des fonctionnalités de vision par ordinateur fiables aux iPhones. Mieux encore, cela fonctionne sans avoir besoin d'une connexion Internet. Dans l'ensemble, l'intégration de CoreML apporte la puissance de l'IA avancée aux applications mobiles courantes, les rendant plus rapides, plus réactives et prêtes à fonctionner partout.

Envie d'en savoir plus sur l'IA ? Explorez notre répertoire GitHub, connectez-vous avec notre communauté et consultez nos options de licence pour démarrer votre projet de vision par ordinateur. Découvrez comment des innovations telles que l'IA dans le commerce de détail et la vision par ordinateur dans la logistique façonnent l'avenir sur nos pages de solutions.

Construisons ensemble l'avenir
de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique

Démarrer gratuitement
Lien copié dans le presse-papiers