Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant

Les meilleurs modèles de détection d'objets pour iOS sur les puces Apple Silicon

Créez iOS plus performantes grâce aux meilleurs modèles de détection d'objets. Découvrez quels modèles offrent des performances rapides, précises et en temps réel sur iOS tels que l'iPhone et l'iPad.

Développez vos projets de vision par ordinateur avec Ultralytics

Démarrer

Android et les iPhones sont désormais indispensables au quotidien. Les gens les utilisent pour faire leurs achats, s'orienter, prendre des photos, scanner des produits et utiliser des applications tout au long de la journée. 

Avec l'essor rapide de l'intelligence artificielle, de nombreux smartphones intègrent désormais des fonctionnalités capables d'analyser les images et les vidéos capturées par leur appareil photo. L'efficacité de ces fonctionnalités dépend en grande partie du matériel sur lequel elles s'appuient.

Par exemple, dans l'écosystème Apple, les appareils tels que les iPhone, les iPad et les Mac sont équipés de puces Apple Silicon, notamment celles des séries A et M. Ces puces SoC (système sur puce) intègrent des processeurs centraux (CPU), des processeurs graphiques (GPU) et des accélérateurs dédiés à l'apprentissage automatique, permettant ainsi l'inférence en périphérique pour les charges de travail liées à l'IA.

Plus précisément, les capacités d'analyse d'images sont rendues possibles grâce à la vision par ordinateur, un domaine de l'IA qui permet aux machines d'interpréter et de comprendre les informations visuelles issues d'images et de vidéos à l'aide de tâches telles que la détection d'objets

Plus précisément, les modèles de détection d'objets analysent les images et identifient les objets en traçant des cadres de sélection autour de ceux-ci. Ces modèles peuvent être optimisés pour fonctionner efficacement sur du matériel mobile, tel que les puces Apple Silicon, ce qui permet une analyse visuelle en temps réel directement sur l'appareil sur iOS .

Fig. 1. Exemple de détection d'objets, ceux-ci étant identifiés par des cadres de sélection. (Source)

Dans cet article, nous allons passer en revue certains des meilleurs modèles de détection d'objets pour développer iOS rapides et fonctionnant en temps réel. C'est parti !

Comment fonctionnent les détecteurs d'objets sur iOS

La détection d'objets aide les applications à reconnaître et à localiser des objets dans une image. Lorsqu'une application traite une image, un modèle de détection d'objets peut analyser la scène et identifier différents objets en leur attribuant des cadres de sélection et des étiquettes.

La plupart des systèmes de détection d'objets s'appuient sur des réseaux neuronaux capables de reconnaître des motifs dans les données d'apprentissage. Pour les tâches liées à l'image, ces modèles apprennent des représentations visuelles en analysant les informations au niveau des pixels issues de vastes ensembles de données d'apprentissage.

Les réseaux neuronaux convolutifs (CNN) constituent souvent la base des modèles de détection d'objets. Les CNN sont particulièrement adaptés à la prédiction d'images, car ils apprennent à reconnaître des caractéristiques visuelles hiérarchiques telles que les contours, les formes et les textures, ce qui aide le modèle à identifier les objets présents dans une scène.

Les chercheurs étudient également des architectures basées sur des transformateurs pour les tâches de vision par ordinateur. Ces modèles analysent les relations entre les différentes zones d'une image et saisissent des informations contextuelles plus larges à l'échelle de la scène. 

Au-delà du type d'architecture du modèle, l'efficacité est un facteur essentiel pour la détection d'objets sur iOS . Comme ces modèles s'exécutent directement sur les appareils mobiles, ils doivent traiter les images rapidement tout en utilisant des ressources de calcul limitées. 

Les modèles performants garantissent une faible latence et permettent la détection d'objets en temps réel dans les applications mobiles, notamment lors de l'analyse d'un flux vidéo continu.

Qu'est-ce qui rend un modèle de détection d'objets particulièrement adapté à iOS?

Avant de nous plonger dans certains des meilleurs modèles de détection d'objets pour iOS, prenons un peu de recul pour comprendre ce qui fait qu'un modèle est particulièrement adapté aux applications mobiles.

Le modèle de détection d'objets idéal pour une iOS doit offrir un équilibre entre performances, efficacité et fiabilité. Voici quelques facteurs clés qui caractérisent un modèle performant destiné à iOS :

  • Faible latence : le modèle doit traiter les images rapidement afin de permettre la détection d'objets en temps réel, en particulier pour les applications qui reposent sur un flux vidéo continu.
  • Taille optimale du modèle : les modèles compacts fonctionnent plus efficacement sur les appareils mobiles et nécessitent généralement moins de mémoire et de ressources de calcul.
  • Précision de la détection : une détection précise garantit que les objets sont correctement classés et que les cadres de sélection restent précis, quelles que soient les scènes, les tailles des objets et les conditions d'éclairage.
  • Stabilité de l'inférence : il est essentiel que le temps d'inférence reste constant d'une image à l'autre pour les applications en temps réel. Des variations importantes du temps de traitement peuvent entraîner des pertes d'images ou une expérience instable avec la caméra.
  • Empreinte mémoire : la quantité de mémoire vive (RAM) requise pendant l'inférence influe sur la fluidité d'exécution d'un modèle lorsqu'il fonctionne en parallèle avec d'autres processus de l'application sur iOS .

Un aperçu des meilleurs modèles de détection d'objets pour iOS 

Voyons maintenant quelques-uns des modèles de détection d'objets les plus couramment utilisés sur iOS .

1.YOLO Ultralytics

YOLO Ultralytics constituent une famille très prisée de modèles de détection d'objets conçus pour les applications de vision par ordinateur en temps réel. Au fil des ans, Ultralytics publié des modèles de vision tels que Ultralytics YOLOv5, Ultralytics YOLOv8, Ultralytics YOLO11, ainsi que le tout dernier modèle de pointe, Ultralytics

Chaque nouvelle version a apporté des améliorations en termes de précision de détection, d'efficacité des modèles et de performances d'exécution. Grâce à ces mises à jour,YOLO Ultralytics sont de plus en plus adaptés aux appareils en périphérie, tels que les smartphones.

Fig. 2. YOLO26 permet de detect objets dans une scène réelle. (Source)

L'un des principaux avantages de l'utilisationYOLO Ultralytics pour iOS réside dans CoreML fournie par le Python Ultralytics . Cette bibliothèque open source permet aux développeurs d'entraîner, de tester et d'exporterYOLO Ultralytics grâce à un processus simple.

Ce package permet d'exporter des modèles entraînés vers CoreML, le format d'apprentissage automatique d'Apple utilisé pour le déploiement de modèles sur iOS . Une fois exporté, le CoreML peut être intégré à une application et s'exécuter directement sur l'appareil en utilisant des composants matériels tels que le CPU, GPU et l'Apple Neural Engine. 

Fig. 3. CoreML le framework d'Apple permettant d'intégrer et d'exécuter des modèles d'IA au sein d'applications. (Source)

Cela permet aux développeurs d'intégrer facilement la détection d'objets en temps réel dans iOS tout en conservant l'inférence du modèle sur l'appareil.

Options de déploiementYOLO Ultralytics sur Apple Silicon

Au-delà des modèles eux-mêmes, Ultralytics propose toute une gamme d'options qui facilitent le déploiement YOLO sur les puces Apple Silicon.

Par exemple, Ultralytics a Ultralytics lancé Ultralytics , qui regroupe la gestion des ensembles de données, l'entraînement des modèles, la validation et le déploiement au sein d'un environnement unique. Ce flux de travail unifié réduit le recours à de multiples outils et contribue à rationaliser le parcours menant de l'expérimentation aux applications concrètes.

Dans le cadre de cette plateforme, les modèles entraînés peuvent être exportés dans plusieurs formats, notamment CoreML les appareils Apple. Cela permet d'exporter unYOLO Ultralytics pour une inférence sur l'appareil en quelques clics seulement. 

Outre ses fonctionnalités d'exportation, Ultralytics une implémentation open source en Swift (le langage de programmation d'Apple utilisé pour développer iOS ) pour iOS. Cela comprend une iOS YOLO prête à l'emploi, écrite en Swift, qui montre comment intégrer CoreML , les exécuter sur les flux de la caméra et les utiliser pour la détection d'objets en temps réel.

Autres avantages desYOLO Ultralytics

Voici quelques autres caractéristiques clés qui fontYOLO Ultralytics un excellent choix pour le développement iOS :

  • Prend en charge toute une gamme de tâches de vision : outre la détection d'objets,YOLO Ultralytics peuvent être utilisés pour la segmentation d'instances, l'estimation de la pose, le suivi d'objets, la détection de cadres de sélection orientés (OBB) et la classification d'images.
  • Plusieurs tailles de modèles : Ultralytics différentes variantes de modèles (telles que nano, petit, moyen, grand et très grand), ce qui permet aux développeurs de choisir une version adaptée aux contraintes de performances des appareils mobiles.
  • Modèles pré-entraînés : les YOLO Ultralytics sont disponibles sous forme de modèles pré-entraînés pouvant être utilisés tels quels ou affinés pour des tâches spécifiques, ce qui permet de réduire le temps de développement.

2. EfficientDet

EfficientDet est une architecture de détection d'objets mise au point par des chercheurs de Google 2019. Elle a été conçue pour trouver un juste équilibre entre la précision de la détection et l'efficacité computationnelle, ce qui la rend particulièrement adaptée aux environnements aux ressources limitées.

L'un des principes fondamentaux d'EfficientDet repose sur une méthode de mise à l'échelle appelée « mise à l'échelle combinée ». Au lieu de ne faire évoluer qu'un seul élément du modèle, comme la profondeur du réseau ou la résolution des images, cette approche permet de mettre à l'échelle simultanément plusieurs composants de l'architecture. 

En ajustant ces éléments simultanément, le modèle conserve des performances stables, qu'il soit configuré pour une grande précision ou optimisé pour des déploiements légers.

Cette architecture est disponible en plusieurs variantes, allant de l'EfficientDet-D0 à l'EfficientDet-D7. Les modèles plus petits sont conçus pour offrir une inférence plus rapide et une consommation de ressources réduite, tandis que les versions plus grandes visent à atteindre une plus grande précision de détection.

3. SSD MobileNet

MobileNet SSD est un modèle léger de détection d'objets conçu pour fonctionner efficacement sur les appareils mobiles et en périphérie. Il a gagné en popularité vers 2017. 

Ce modèle combine l'architecture MobileNet, qui met l'accent sur l'extraction efficace de caractéristiques, avec l'approche SSD (Single Shot Detector) pour la détection d'objets. La méthode SSD détecte les objets et génère des cadres de sélection en un seul passage. 

Cette conception permet de conserver un modèle relativement rapide et simple, ce qui est utile pour les applications nécessitant des résultats de détection rapides. MobileNet SSD est souvent utilisé dans les situations où la taille réduite du modèle et la rapidité de l'inférence sont des critères importants. 

L'architecture MobileNet réduit la charge de calcul nécessaire, ce qui facilite l'exécution du modèle sur des appareils dotés d'une puissance de traitement limitée. Même si MobileNet SSD n'atteint pas le même niveau de précision que certaines architectures de détection plus récentes, il offre néanmoins de bonnes performances pour de nombreuses tâches courantes de détection d'objets. 

4. CenterNet

CenterNet est un modèle de détection d'objets qui identifie les objets en prédisant leurs points centraux. Il a été présenté en 2019. 

Au lieu de générer de nombreuses zones candidates, le modèle détecte le centre d'un objet, puis prédit la taille du cadre de sélection qui l'entoure. Cette approche simplifie le processus de détection et réduit le nombre d'étapes nécessaires lors de l'inférence. 

Fig. 3. Aperçu des étapes de détection d'objets dans CenterNet (Source)

CenterNet peut être utilisé pour des tâches de détection en temps réel et se distingue par son architecture relativement simple par rapport à certains détecteurs à plusieurs étapes. Des variantes telles que CenterNet avec des structures ResNet sont couramment utilisées dans diverses applications de vision par ordinateur.

Grâce à sa conception efficace, CenterNet est particulièrement adapté aux systèmes nécessitant une détection rapide d'objets, notamment aux applications fonctionnant sur iOS .

5. NanoDet

NanoDet est un modèle léger de détection d'objets conçu pour les applications en temps réel sur les périphériques en périphérie et les appareils mobiles. Il a été lancé en 2020 dans le but d'offrir une détection d'objets efficace tout en limitant au maximum la taille du modèle et les besoins en ressources informatiques.

Le modèle utilise une architecture de détection en une seule étape, ce qui lui permet de prédire l'emplacement et la catégorie des objets en un seul passage à travers le réseau. Cette conception garantit la rapidité du modèle et le rend adapté aux systèmes disposant de ressources matérielles limitées.

NanoDet utilise une architecture de base compacte et une tête de détection optimisée afin de réduire le nombre de paramètres et de calculs nécessaires lors de l'inférence. Ces choix de conception permettent de conserver une précision de détection raisonnable tout en privilégiant la rapidité et l'efficacité.

Choisir le bon modèle de détection d'objets pour votre iOS

Le choix d'un modèle de détection d'objets pour une iOS dépend souvent des exigences spécifiques du cas d'utilisation. Étant donné que ces modèles s'exécutent directement sur des appareils tels que l'iPhone et l'iPad, plusieurs facteurs déterminent quelle option sera la plus adaptée.

Voici quelques points importants à prendre en compte :

  • Efficacité énergétique : les modèles qui consomment moins d'énergie permettent de préserver l'autonomie de la batterie, ce qui est important pour les applications mobiles qui effectuent un traitement continu des images.
  • Optimisation des modèles Prise en charge : certains modèles prennent en charge des techniques d'optimisation telles que la quantification ou l'élagage, qui permettent de réduire la taille du modèle et d'améliorer les performances sur iOS .
  • Compatibilité matérielle : l'architecture de modèle que vous choisissez doit fonctionner efficacement sur iOS , notamment le CPU, GPU et le Neural Engine d'Apple.
  • Évolutivité : certaines architectures proposent plusieurs tailles ou variantes de modèles, ce qui permet aux développeurs de choisir les versions les mieux adaptées à leurs besoins en matière de performances et de matériel.

Principaux points à retenir

Les modèles de détection d'objets apportent des fonctionnalités avancées de vision par ordinateur aux applications mobiles intelligentes. Fonctionnant directement sur iOS , ces modèles permettent aux applications d'analyser en temps réel les images et les vidéos capturées par l'appareil photo de l'appareil. En choisissant le modèle adapté, les développeurs peuvent créer des applications mobiles réactives, basées sur la vision par ordinateur, qui offrent des performances fiables en temps réel.

Rejoignez notre communauté en pleine expansion et explorez notre référentiel GitHub pour découvrir des ressources pratiques sur l'IA. Pour développer dès aujourd'hui des solutions basées sur l'IA visuelle, découvrez nos options de licence. Découvrez comment l'IA transforme l'agriculture et comment l'IA visuelle en robotique façonne l'avenir en consultant nos pages Solutions.

Construisons ensemble l'avenir de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique