Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant

Ultralytics : la nouvelle norme pour l'IA visuelle axée sur la périphérie

Découvrez comment Ultralytics établit une nouvelle norme en matière d'IA visuelle axée sur la périphérie grâce à une inférence de bout en bout NMS, CPU plus rapides et un déploiement de production simplifié.

Aujourd'hui, Ultralytics lance Ultralytics YOLO26, YOLO le plus avancé et le plus déployable à ce jour. Annoncé pour la première fois lors YOLO 2025 (YV25), YOLO26 représente un changement fondamental dans la manière dont les modèles de vision par ordinateur sont formés, déployés et adaptés à l'échelle dans les systèmes du monde réel. 

La vision par IA évolue rapidement vers la périphérie. De plus en plus, les images et les vidéos sont traitées directement sur les appareils, les caméras, les robots et les systèmes embarqués, où la latence, la fiabilité et le coût importent davantage que la puissance de calcul brute du cloud. YOLO26 est conçu pour répondre à cette réalité, offrant des performances de pointe tout en fonctionnant efficacement sur les processeurs, les accélérateurs périphériques et le matériel à faible consommation d'énergie.

Bien que YOLO26 représente une avancée significative, il conserve néanmoins l'interface familière et simplifiée Ultralytics YOLO sur laquelle les développeurs peuvent compter. Il s'intègre parfaitement aux flux de travail existants, prend en charge un large éventail de tâches de vision et reste facile à utiliser, ce qui facilite son adoption tant par les équipes de recherche que par les équipes de production.

Ultralytics pour la détection d'objets
Fig. 1. Exemple d'utilisation Ultralytics pour la détection d'objets

Dans cet article, nous allons passer en revue tout ce que vous devez savoir sur Ultralytics et ce qu'un YOLO plus léger, plus petit et plus rapide signifie pour l'avenir de l'IA visuelle. C'est parti !

Ultralytics établit une nouvelle norme en matière d'IA visuelle

Ultralytics repose sur l'idée que les capacités d'IA visuelle à fort impact doivent être facilement accessibles à tous. Nous pensons que les outils puissants de vision par ordinateur ne doivent pas être réservés ou limités à un petit groupe d'organisations.

Lors du salon YV25 à Londres, notre fondateur et PDG Glenn Jocher a partagé son point de vue sur cette vision en déclarant : « Les technologies d'IA les plus incroyables sont cachées derrière des portes closes. Elles ne sont pas accessibles à tous. Les grandes entreprises contrôlent les nouveaux développements, et tous les autres doivent faire la queue pour y avoir accès. Chez Ultralytics, nous avons une vision différente. Nous voulons que l'IA soit à la portée de tous. »

Il a également expliqué que cela impliquait de sortir l'IA du cloud pour l'intégrer dans des environnements réels, ajoutant : « Nous voulons que cette technologie ne reste pas confinée dans le cloud, mais qu'elle soit intégrée dans des appareils périphériques, dans vos téléphones, vos véhicules et vos systèmes à faible consommation d'énergie. Et nous voulons que ces personnes extraordinaires qui créent des solutions y aient accès. »

YOLO26 reflète cette vision dans la pratique : un modèle conçu pour fonctionner là où l'IA visuelle est réellement déployée, et non là où il est le plus facile de créer un prototype.

Analyse Ultralytics : un modèle de vision à la pointe de la technologie

À l'instarYOLO précédentsYOLO Ultralytics , YOLO26 prend en charge plusieurs tâches de vision par ordinateur au sein d'une seule et même famille de modèles unifiés. Il est disponible en cinq tailles : Nano (n), Small (s), Medium (m), Large (l) et Extra Large (x), ce qui permet aux équipes d'équilibrer la vitesse, la précision et la taille du modèle en fonction des contraintes de déploiement.

Au-delà de sa flexibilité, YOLO26 place la barre encore plus haut en matière de performances. Comparé à YOLO11, le modèle nano YOLO26 offre CPU jusqu'à 43 % plus rapide, ce qui en fait l'un des modèles de détection d'objets haute précision les plus rapides disponibles pour un déploiement en périphérie et CPU.

Ultralytics YOLO26
Fig. 2. Ultralytics est un modèle de vision de pointe.

Voici un aperçu des tâches de vision par ordinateur prises en charge par YOLO26 :

  • Classification d'images : YOLO26 peut analyser une image dans son ensemble et l'attribuer à une catégorie spécifique, aidant ainsi les systèmes à comprendre le contexte global d'une scène.
  • Détection d'objets : le modèle peut trouver et localiser plusieurs objets dans des images ou des vidéos.
  • Segmentation d'instance : YOLO26 peut délimiter des objets individuels avec un niveau de détail au pixel près.
  • Estimation de la pose : elle peut être utilisée pour identifier des points clés et estimer les poses de personnes et d'autres objets.
  • Détection des boîtes englobantes orientées (OBB) : YOLO26 peut detect sous différents angles, ce qui est particulièrement utile pour les images aériennes et satellitaires.
  • Suivi d'objets : associé au Python Ultralytics , YOLO26 peut être utilisé pour suivre des objets à travers des images vidéo et des flux en direct.

Toutes les tâches prennent en charge la formation, la validation, l'inférence et l'exportation dans un cadre cohérent.

Principales innovations derrière Ultralytics

Ultralytics introduit plusieurs innovations fondamentales qui améliorent la vitesse d'inférence, la stabilité de l'entraînement et la simplicité du déploiement. Voici un aperçu de ces innovations :

  • Suppression de la perte focale de distribution (DFL) : le module DFL a été supprimé afin de simplifier la prédiction des cadres de sélection, d'améliorer la compatibilité matérielle et de faciliter l'exportation et l'exécution des modèles sur des appareils périphériques et à faible consommation d'énergie.
  • Inférence de bout en bout NMS: YOLO26 est conçu comme un modèle natif de bout en bout qui génère directement des prédictions finales, éliminant ainsi le besoin de suppression non maximale et réduisant la latence d'inférence et la complexité du déploiement.
  • Équilibrage progressif des pertes + STAL : ces stratégies améliorées de gestion des pertes stabilisent l'entraînement et améliorent la précision de la détection, en particulier pourdetect petits etdetect .
  • Optimiseur MuSGD : YOLO26 utilise un nouvel optimiseur hybride qui combine SGD des techniques d'optimisation inspirées du muon pour un entraînement plus stable.
  • CPU jusqu'à 43 % plus rapide : spécialement optimisé pour l'edge computing, YOLO26 offre CPU jusqu'à 43 % plus rapide, permettant des performances en temps réel sur les appareils périphériques.

Passons maintenant en revue ces fonctionnalités de nouvelle génération qui rendent YOLO26 plus rapide, plus efficace et plus facile à déployer.

Simplification des prédictions grâce à la suppression de la perte focale de distribution

YOLO précédents utilisaient la perte focale de distribution (DFL) pendant l'entraînement afin d'améliorer la précision des cadres de sélection. Bien qu'efficace, la DFL introduisait une complexité supplémentaire et imposait des limites de régression fixes qui rendaient l'exportation et le déploiement plus difficiles, en particulier sur du matériel périphérique et à faible consommation d'énergie.

YOLO26 supprime complètement le DFL. La suppression du DFL élimine les limites de régression des cadres de délimitation fixes présentes dans les modèles précédents, améliorant ainsi la fiabilité et la précision lors de la détection d'objets très volumineux.

En simplifiant le processus de prédiction des cadres de délimitation, YOLO26 devient plus facile à exporter et fonctionne de manière plus fiable sur une large gamme d'appareils périphériques et à faible consommation d'énergie.

Inférence de bout en bout NMS avec Ultralytics

Les pipelines traditionnels de détection d'objets s'appuient sur la suppression non maximale (NMS) comme étape de post-traitement pour filtrer les prédictions qui se chevauchent. Bien qu'efficace, NMS la latence, de la complexité et NMS la fragilité, en particulier lors du déploiement de modèles sur plusieurs environnements d'exécution et cibles matérielles.

YOLO26 introduit un mode d'inférence natif de bout en bout, dans lequel le modèle génère directement les prédictions finales sans nécessiter NMS étape de post-traitement distincte. Les prédictions en double sont traitées au sein même du réseau.

L'élimination NMS la latence, simplifie les pipelines de déploiement et diminue le risque d'erreurs d'intégration, ce qui rend YOLO26 particulièrement adapté aux déploiements en temps réel et en périphérie.

Amélioration de la reconnaissance grâce à la compensation progressive des pertes + STAL

Une caractéristique essentielle liée à l'entraînement est l'introduction du Progressive Loss Balancing (ProgLoss) et du Small-Target-Aware Label Assignment (STAL). Ces fonctions de perte améliorées contribuent à stabiliser l'entraînement et à améliorer la précision de la détection.

ProgLoss aide le modèle à apprendre de manière plus cohérente pendant l'entraînement, réduisant ainsi l'instabilité et lui permettant de converger plus facilement. De son côté, STAL se concentre sur l'amélioration de la manière dont le modèle apprend à partir de petits objets, qui sont souvent plus difficiles à detect de détails visuels limités.

Ensemble, ProgLoss et STAL permettent des détections plus fiables, avec des améliorations notables dans la reconnaissance des petits objets. Cela est particulièrement important pour les applications de pointe telles que l'Internet des objets (IoT), la robotique et l'imagerie aérienne, où les objets sont souvent petits, éloignés ou partiellement visibles.

Entraînement plus stable avec l'optimiseur MuSGD 

Avec YOLO26, nous avons adopté un nouvel optimiseur appelé MuSGD, conçu pour rendre l'entraînement plus stable et plus efficace. MuSGD est une approche hybride qui combine les atouts de la descente stochastique du gradient (SGD) traditionnelle avec des techniques inspirées de Muon, un optimiseur utilisé dans l'entraînement des grands modèles linguistiques (LLM).

SGD depuis longtemps un choix fiable dans le domaine de la vision par ordinateur, grâce à sa simplicité et à sa forte généralisation. Parallèlement, les progrès récents dans la formation des LLM ont montré que les nouvelles méthodes d'optimisation peuvent améliorer la stabilité et la vitesse lorsqu'elles sont appliquées avec soin. Le MuSGD introduit certaines de ces idées dans le domaine de la vision par ordinateur.

Inspiré par Kimi K2 de Moonshot AI, MuSGD intègre des stratégies d'optimisation qui aident le modèle à converger plus facilement pendant l'entraînement. Cela permet à YOLO26 d'atteindre plus rapidement des performances élevées tout en réduisant l'instabilité de l'entraînement, en particulier dans les configurations d'entraînement plus importantes ou plus complexes.

MuSGD aide YOLO26 à s'entraîner de manière plus prévisible sur toutes les tailles de modèles, contribuant ainsi à améliorer les performances et la stabilité de l'entraînement.

Ultralytics offre CPU jusqu'à 43 % plus rapide

Alors que l'IA visuelle continue de se rapprocher de l'endroit où les données sont générées, il devient de plus en plus crucial de disposer de performances de pointe. Spécialement optimisé pour l'informatique de pointe, YOLO26 offre CPU jusqu'à 43 % plus rapide, garantissant des performances en temps réel sur les appareils sans GPU. Cette amélioration permet à des systèmes de vision réactifs et fiables de fonctionner directement sur des caméras, des robots et du matériel intégré, où la latence, l'efficacité et les contraintes de coût définissent ce qui est possible.

Tâches de vision par ordinateur améliorées prises en charge par Ultralytics

Au-delà des améliorations architecturales qui rendent la détection d'objets plus précise, YOLO26 comprend également des optimisations spécifiques à certaines tâches, conçues pour améliorer les performances dans le domaine de la vision par ordinateur. Par exemple, il améliore la segmentation d'instances, l'estimation de pose et la détection de cadres de sélection orientés grâce à des mises à jour ciblées qui améliorent la précision et la fiabilité.

Voici un aperçu de ces optimisations :

  • Segmentation d'instance : YOLO26 utilise la perte de segmentation sémantique pour améliorer la façon dont le modèle apprend pendant l'entraînement, ce qui permet d'obtenir des masques d'instance plus précis et plus cohérents. Un module proto amélioré permet également d'utiliser des informations provenant de plusieurs échelles, de sorte que le modèle traite plus efficacement les objets de différentes tailles, même dans des scènes complexes.
  • Estimation de la pose : en intégrant l'estimation de la log-vraisemblance résiduelle (RLE), une technique qui modélise l'incertitude dans les prédictions des points clés, et en améliorant le processus de décodage, YOLO26 fournit des points clés plus précis avec de meilleures performances en temps réel.
  • Détection orientée des boîtes englobantes : YOLO26 introduit une perte angulaire spécialisée qui aide le modèle à apprendre plus précisément la rotation des objets, en particulier pour les objets de forme carrée dont l'orientation peut être ambiguë. Le décodage OBB optimisé réduit également les sauts soudains dans les prédictions d'angle près des limites de rotation, ce qui permet d'obtenir des estimations d'orientation plus stables et plus cohérentes.
Utilisation Ultralytics pour la segmentation d'instances.
Fig. 3. Utilisation Ultralytics pour la segmentation d'instances.

Ultralytics : segmentation à vocabulaire ouvert basée sur YOLO26

Ultralytics également YOLOE-26, une nouvelle famille de modèles de segmentation à vocabulaire ouvert basés sur l'architecture et les innovations en matière de formation de YOLO26.

YOLOE-26 n'est pas une nouvelle tâche ou fonctionnalité, mais une famille de modèles spécialisés qui réutilise la tâche de segmentation existante tout en permettant des invites textuelles, des invites visuelles et une inférence sans invite. Disponible dans toutes YOLO standard, YOLOE-26 offre une précision accrue et des performances plus fiables dans le monde réel que les modèles de segmentation à vocabulaire ouvert précédents.

Ultralytics est conçu pour les environnements où l'IA visuelle est réellement utilisée.

Des caméras à vision artificielle aux robots équipés de vision artificielle et de minuscules puces de traitement à la pointe de la technologie, la vision artificielle et l'IA sont déployées directement sur les appareils pour permettre une inférence en temps réel. Ultralytics est spécialement conçu pour ces environnements, où une faible latence, une efficacité et des performances fiables sont essentielles.

Concrètement, cela signifie que YOLO26 peut être facilement déployé sur une large gamme de matériel. Plus précisément, grâce auPython Ultralytics et à ses nombreuses intégrations, les modèles peuvent être exportés dans des formats optimisés pour différentes plateformes et accélérateurs matériels.

Par exemple, l'exportation vers TensorRT une inférence haute performance sur NVIDIA , tandis que CoreML le déploiement natif sur les appareils Apple et OpenVINO les performances sur Intel . YOLO26 peut également être exporté pour fonctionner sur plusieurs accélérateurs de pointe dédiés, permettant une inférence à haut débit et économe en énergie sur du matériel Edge AI spécialisé. 

Ce ne sont là que quelques exemples, car de nombreuses autres intégrations sont prises en charge dans les environnements périphériques et de production. Cette flexibilité permet à un seul modèle YOLO26 de fonctionner sur diverses cibles de déploiement. Elle rationalise les flux de travail de production et rapproche l'IA visuelle de la périphérie.

Redéfinir les cas d'utilisation de la vision par ordinateur dans tous les secteurs

Conçu pour une utilisation dans le monde réel, YOLO26 peut être utilisé dans un large éventail de cas d'utilisation de la vision par ordinateur dans différents secteurs. Voici quelques exemples d'applications possibles :

  • Robotique: YOLO26 peut être utilisé pour des tâches telles que la navigation, la détection d'obstacles et l'interaction avec des objets. Ces capacités permettent des opérations robotiques sûres et efficaces dans des environnements dynamiques.
  • Fabrication: sur les chaînes de production, YOLO26 peut analyser des images et des vidéos afin d'identifier les défauts, les composants manquants ou les problèmes de processus. Le traitement des données sur l'appareil permet une détection rapide et réduit la dépendance aux systèmes cloud.
  • Applications aériennes et drones: lorsqu'il est déployé sur des drones, YOLO26 peut traiter des images aériennes pendant le vol à des fins d'inspection, de cartographie et de levé. Cela permet d'analyser des scènes en temps réel, même dans des endroits reculés.
  • Systèmes embarqués et IoT: grâce à sa conception légère, YOLO26 peut fonctionner sur du matériel embarqué à faible consommation d'énergie pour traiter les données visuelles localement. Les cas d'utilisation courants incluent les caméras intelligentes, les capteurs connectés et les dispositifs de surveillance automatisés.

Villes intelligentes: dans les environnements urbains, YOLO26 peut analyser les flux vidéo provenant des caméras de circulation et des caméras installées dans les espaces publics. Cela permet des applications telles que la surveillance du trafic, la sécurité publique et la gestion des infrastructures à la périphérie.

YOLO26 peut être utilisé pour diverses applications de vision par ordinateur.
Fig. 4. YOLO26 peut être utilisé pour diverses applications de vision par ordinateur.

Premiers pas avec Ultralytics

Ultralytics peut être utilisé via deux workflows complémentaires, selon la manière dont vous développez et déployez l'IA visuelle.

Option 1 : Utilisez Ultralytics via la Ultralytics (recommandé)

Ultralytics offre un moyen centralisé de former, déployer et surveiller les modèles YOLO26 en production. Elle rassemble les ensembles de données, les expériences et les déploiements en un seul endroit, ce qui facilite la gestion des flux de travail d'IA visuelle à grande échelle, en particulier pour les équipes qui déploient dans des environnements de pointe et de production.

Grâce à la plateforme, les utilisateurs peuvent :

  • Accéder aux modèles YOLO26
  • Entraîner et affiner les modèles à partir d'ensembles de données personnalisés
  • Modèles d'exportation pour le déploiement en périphérie et en production
  • Surveillez les expériences et les modèles déployés dans un seul flux de travail.

👉 Découvrez YOLO26 sur la Ultralytics : platform.ultralytics.ultralytics

Option 2 : Utiliser Ultralytics via des workflows open source

YOLO26 reste entièrement accessible via l'écosystème open source Ultralyticset peut être utilisé avec les workflows Python existants pour la formation, l'inférence et l'exportation.

Les développeurs peuvent installer le Ultralytics , charger des modèles YOLO26 pré-entraînés et les déployer à l'aide d'outils et de formats familiers tels que ONNX, TensorRT, CoreML ou OpenVINO.

pip install ultralytics
from ultralytics import YOLO

# Load a COCO-pretrained YOLO26n model
model = YOLO("yolo26n.pt")

# Run inference with the YOLO26n model on the 'bus.jpg' image
results = model("path/to/bus.jpg")

Pour les utilisateurs qui préfèrent un contrôle manuel ou des pipelines personnalisés, une documentation complète et des guides sont disponibles dans la Ultralytics .

Ultralytics : conçu pour l'avenir de la vision par ordinateur

Ultralytics est conçu pour répondre aux besoins des solutions d'IA visuelle de demain, où les modèles devront être rapides, efficaces et faciles à déployer sur du matériel réel. En améliorant les performances, en simplifiant le déploiement et en élargissant les capacités du modèle, YOLO26 s'intègre naturellement dans un large éventail d'applications concrètes. YOLO26 établit une nouvelle référence en matière de conception, de déploiement et de mise à l'échelle de l'IA visuelle. Nous sommes impatients de voir comment la communauté l'utilisera pour commercialiser des systèmes de vision par ordinateur dans le monde réel.

Rejoignez notre communauté grandissante et explorez notre dépôt GitHub pour des ressources pratiques sur l'IA. Pour construire avec Vision AI dès aujourd'hui, découvrez nos options de licence. Découvrez comment l 'IA transforme l'agriculture et comment Vision AI façonne l'avenir de la robotique en visitant nos pages de solutions.

Construisons ensemble l'avenir
de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique

Démarrer gratuitement