En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Paramètres des cookies
En cliquant sur « Accepter tous les cookies », vous acceptez le stockage de cookies sur votre appareil pour améliorer la navigation sur le site, analyser son utilisation et contribuer à nos efforts de marketing. Plus d’infos
Découvrez comment la création de produits intelligents avec YOLO26 et l'IA visuelle permet la détection en temps réel, l'automatisation intelligente et des expériences produit évolutives et réactives.
Développez vos projets de vision par ordinateur avec Ultralytics
Des milliers d'heures de vidéo sont enregistrées chaque jour par des caméras intégrées à des appareils, des machines et des infrastructures publiques. La plupart de ces images sont stockées, visionnées rapidement ou examinées uniquement lorsqu'un incident se produit.
Souvent, les données visuelles sont disponibles, mais la capacité à les interpréter en temps réel fait défaut. À mesure que les produits deviennent plus connectés et axés sur les données, cette limitation devient plus perceptible.
Les utilisateurs attendent des systèmes qu'ils fassent plus que simplement enregistrer des événements ou suivre des instructions fixes. Par exemple, ils attendent des produits intelligents qu'ils reconnaissent ce qui se passe et réagissent immédiatement, sans attendre des vérifications manuelles ni s'appuyer sur des ensembles de règles rigides.
Les progrès récents en matière d'intelligence artificielle contribuent à combler cette lacune. En particulier, la vision par ordinateur permet aux machines d'interpréter des images et des vidéos, ce qui permet aux systèmes d'analyser des scènes et de réagir en temps réel.
Cependant, pour intégrer cette fonctionnalité dans un produit, il faut disposer de modèles à la fois rapides et fiables. Les modèles de vision par ordinateur de pointe, tels que Ultralytics , sont conçus à cet effet et offrent la vitesse et la précision nécessaires à un déploiement en temps réel.
YOLO26 prend en charge les tâches de vision essentielles telles que la détection d'objets, la segmentation d'instances et le suivi d'objets, permettant ainsi aux produits d'interpréter les données visuelles et de réagir de manière intelligente.
Fig. 1. Détection d'objets dans une image à l'aide de YOLO26 (Source)
Dans cet article, nous allons explorer comment la vision par ordinateur et Ultralytics peuvent être utilisés pour créer des produits plus intelligents et prendre en charge l'automatisation intelligente dans des applications concrètes. C'est parti !
Les lacunes du développement traditionnel des produits
Avant d'aborder la manière dont la vision par ordinateur contribue à la conception de produits plus intelligents, examinons de près les défis auxquels sont confrontées les équipes qui s'appuient sur des systèmes traditionnels basés sur des règles et des algorithmes obsolètes.
Voici quelques-uns des principaux défis liés au développement traditionnel de produits :
Systèmes rigides basés sur des règles : une logique codée en dur peut fonctionner dans des environnements contrôlés, mais les conditions réelles sont rarement prévisibles. De légers changements dans l'éclairage, l'angle de la caméra ou l'apparence des objets peuvent rapidement enfreindre les règles prédéfinies et réduire la précision.
Mauvaise adaptabilité à la variabilité du monde réel : les systèmes traditionnels ne s'adaptent pas bien aux scénarios nouveaux ou imprévus. Les mises à jour nécessitent souvent des réglages manuels et des optimisations répétées, ce qui ralentit les améliorations du produit et augmente les efforts de maintenance.
Limites en matière d'évolutivité : à mesure que le volume de données image et vidéo augmente, les anciens pipelines de traitement d'images ont du mal à suivre le rythme. Le traitement devient plus lent, ce qui rend difficile le maintien des performances en temps réel sur l'ensemble des flux vidéo.
Latence élevée dans les scénarios en temps réel : de nombreuses approches traditionnelles ne permettent pas de traiter suffisamment rapidement les flux visuels continus. Les retards dans les sorties affaiblissent l'automatisation et réduisent la réactivité globale.
Exigences informatiques coûteuses : pour obtenir une précision acceptable, il faut souvent disposer de ressources matérielles importantes, notamment des processeurs graphiques (GPU) dédiés, ce qui augmente les coûts d'infrastructure.
Le rôle de la vision par ordinateur dans la conception de produits plus intelligents
Voyons maintenant comment la vision par ordinateur peut contribuer à rendre le comportement des produits plus intelligent.
La plupart des produits connectés collectent déjà des données visuelles dans le cadre de leurs processus opérationnels normaux. Des caméras sont intégrées à divers appareils, installées dans des espaces physiques et reliées via des systèmes Internet des objets (IoT).
Par conséquent, des images et des vidéos sont constamment capturées en arrière-plan. Le défi ne réside pas dans la collecte de ces données.
Le plus difficile est d'interpréter les données collectées en temps réel. Sans intelligence visuelle, les images sont simplement stockées et examinées ultérieurement, souvent après qu'un problème s'est déjà produit.
La vision par ordinateur change la donne. Grâce à des réseaux neuronaux entraînés à reconnaître des modèles, les systèmes peuvent analyser des images et des vidéos en temps réel. Au lieu de s'appuyer sur des règles fixes ou des vérifications manuelles, les produits peuvent interpréter ce qui se passe dans une scène et réagir au fur et à mesure que les événements se produisent.
Pour intégrer cette capacité visuelle dans leurs produits, les équipes peuvent s'appuyer sur des modèles de vision par ordinateur efficaces tels que Ultralytics . YOLO26 prend en charge les tâches de vision clés et peut aider les produits à interpréter les informations visuelles suffisamment rapidement pour permettre la prise de décisions en temps réel.
Les éléments constitutifs des produits axés sur la vision
Voici un bref aperçu de la manière dont les tâches de vision par ordinateur peuvent contribuer à la conception de produits plus intelligents :
Détection d'objets : cette tâche permet d'identifier et de localiser les objets pertinents dans chaque image à l'aide d'un cadre de sélection et d'attribuer un score de confiance, ce qui permet de comprendre clairement ce qui est présent dans une image.
Suivi d'objets : cette fonction permet de suivre des objets spécifiques sur plusieurs images, ce qui permet à un système de vision de comprendre les mouvements et les changements au fil du temps.
Classification d'images : cette tâche consiste à attribuer une étiquette à une image entière en fonction de son contenu principal. Elle permet de classer les scènes ou d'identifier des conditions spécifiques dans le cadre.
Segmentation d'instance : elle permet de délimiter précisément les objets au niveau des pixels, ce qui permet aux produits de mieux interpréter les formes, les contours et les relations spatiales.
Estimation de la posture : cette tâche détecte les points clés du corps humain ou d'autres objets articulés. Elle capture la posture, les mouvements et les interactions physiques en temps réel.
Détection par boîte englobante orientée (OBB) : elle permet de detect à l'aide de boîtes englobantes pivotées plutôt que de boîtes horizontales standard. Elle améliore la précision de la localisation lorsque les objets apparaissent sous des angles ou dans des environnements très denses.
Lorsque ces capacités sont appliquées à des données visuelles continues, les produits peuvent réagir plus rapidement, automatiser de manière plus fiable et offrir des expériences qui semblent conscientes plutôt que réactives. Au lieu d'attendre que les événements soient examinés ultérieurement, les systèmes peuvent comprendre et agir immédiatement.
Comment les modèles de vision en temps réel permettent un comportement intelligent des produits
Au fur et à mesure que vous en apprenez davantage sur les produits basés sur la vision, vous vous demandez peut-être comment un système passe du simple enregistrement vidéo à une réponse en temps réel.
Tout commence par la reconnaissance de ce qui se trouve devant la caméra. À mesure que la vidéo est diffusée, un modèle de vision analyse chaque image et identifie les éléments importants, tels que des objets ou des personnes spécifiques. Au lieu de réagir à chaque mouvement, le système se concentre uniquement sur les signaux pertinents.
Un autre aspect essentiel est la vitesse. Les systèmes en temps réel doivent traiter chaque image rapidement et de manière cohérente, afin que la détection et la prise de décision s'effectuent sans délai perceptible.
Par exemple, la famille de modèles Ultralytics YOLO You Only Look Once) a été conçue pour traiter des données visuelles en temps réel. Des modèles tels que Ultralytics s'appuient sur des versions antérieures telles que Ultralytics YOLOv5, Ultralytics YOLOv8et Ultralytics YOLO11, intégrant des améliorations architecturales, des optimisations de performances et des améliorations d'efficacité. Il en résulte une vitesse et une précision accrues, même dans des conditions réelles exigeantes.
Une fois intégrés à un produit, ces modèles fonctionnent en continu en arrière-plan, analysant chaque image dès son arrivée. Le système vérifie les conditions prédéfinies et, une fois celles-ci remplies, peut instantanément déclencher une alerte, mettre à jour un flux de travail ou lancer une action.
Cela rend les systèmes basés sur la vision plus réactifs, évolutifs et pratiques pour une intégration dans des environnements allant de la robotique et des véhicules autonomes aux systèmes domotiques et de sécurité. Pour les chefs d'entreprise, cela se traduit par des réponses plus rapides, moins de vérifications manuelles et une automatisation qui semble fiable plutôt que réactive.
Utilisation de YOLO26 pour alimenter l'intelligence visuelle en temps réel dans les produits
YOLO Ultralytics , y compris YOLO26, sont disponibles prêts à l'emploi en tant que modèles pré-entraînés. Cela signifie qu'ils ont déjà été entraînés sur des ensembles de données volumineux et largement utilisés, tels que COCO .
Grâce à cette pré-formation, YOLO26 peut immédiatement reconnaître les objets courants du monde réel. Cela donne aux équipes produit un point de départ pratique, ce qui signifie qu'elles peuvent créer des fonctionnalités visuelles sans avoir à former un modèle à partir de zéro.
Pour des besoins plus spécifiques, ces modèles pré-entraînés peuvent être affinés à l'aide de données spécifiques au domaine avec des annotations de haute qualité.
Prenons l'exemple d'un restaurant équipé de caméras au plafond. Un modèle d'IA visuelle spécialement formé, tel que YOLO26, peut detect personnes présentes dans l'espace. Il peut identifier les tables occupées et les chaises vides.
Fig. 2. YOLO26 permet la détection en temps réel des personnes, des espaces ouverts et des caisses occupées dans les magasins de détail. (Source)
Dans ce type de scénario, YOLO26 agit comme un moteur visuel fonctionnant en continu en arrière-plan. Les équipes peuvent également déployer ces modèles sur des appareils périphériques, en fonction des besoins en matière de performances et des objectifs d'efficacité énergétique.
Applications concrètes des YOLO dans les produits intelligents
Maintenant que nous comprenons mieux le fonctionnement des modèles de vision en temps réel, voyons commentYOLO Ultralytics peuvent être appliqués à des produits intelligents dans différents cas d'utilisation afin de les rendre plus conscients, réactifs et capables d'agir en fonction de ce qu'ils voient.
Informations sur les produits de santé avec YOLO
Dans le domaine de la formation chirurgicale en soins de santé, des heures d'enregistrements vidéo d'interventions sont souvent visionnées manuellement afin d'évaluer la manipulation des instruments et le déroulement des opérations. Ce processus peut être fastidieux et dépend fortement de l'observation humaine.
Grâce à un modèle de vision YOLO intégré au système, les flux vidéo peuvent être analysés automatiquement pendant les interventions. Le modèle peut detect les instruments detect en temps réel et identifier où et quand ils sont utilisés.
Cela permet une journalisation structurée, des analyses améliorées et des informations de haute qualité sur les performances sans nécessiter de vérification manuelle constante. En effet, des recherches utilisant le YOLO11 , prédécesseur du dernier modèle YOLO26, ont montré que la détection en temps réel des instruments laparoscopiques pouvait fonctionner efficacement, même sur des systèmes embarqués.
Fig. 3. Détection en temps réel d'instruments laparoscopiques à l'aide de YOLO Source)
Le modèle a conservé une grande précision tout en fonctionnant suffisamment rapidement pour être utilisé dans des conditions chirurgicales réelles. Cela montre comment l'apprentissage profond peut fournir un retour visuel fiable en temps réel pendant les interventions.
Créer des expériences de vente au détail intelligentes YOLO
Nous nous sommes tous déjà retrouvés devant un rayon bondé de supermarché à chercher le bon produit. Beaucoup d'articles se ressemblent, les étiquettes sont petites et les produits sont souvent mal placés.
Pour les détaillants, cela rend difficile la visibilité en temps réel des rayons. Les modèles de détection YOLO Vision AI et YOLO peuvent aider les systèmes des magasins à comprendre ce qui se trouve réellement sur les rayons grâce à des flux vidéo en direct et des images provenant de caméras. Cela réduit la dépendance aux scans de codes-barres et aux vérifications manuelles, rendant la surveillance des rayons plus précise et plus réactive.
Fig. 4. Détection et segmentation des produits sur les rayons des supermarchés avec YOLO26
Grâce à cette précision, les détaillants n'ont plus besoin de se fier uniquement à des contrôles manuels périodiques. Les rayons peuvent être surveillés en continu grâce à la vidéo en direct.
Les stocks faibles peuvent être signalés immédiatement, les produits égarés peuvent être repérés plus rapidement et les processus de paiement peuvent se dérouler plus facilement. Cela permet aux détaillants de mieux contrôler leurs opérations tout en offrant une expérience d'achat plus fluide à leurs clients.
Vision IA et navigation autonome
Les systèmes autonomes peuvent être très efficaces, mais ils reposent souvent sur des itinéraires fixes ou des coordonnées prédéfinies. Si cela fonctionne dans des environnements stables, les conditions réelles changent rarement.
Les solutions Vision AI, basées sur des modèles d'apprentissage profond, permettent aux machines de comprendre leur environnement et de s'adapter en temps réel. Grâce à la vision par ordinateur combinée à des algorithmes adaptatifs, les systèmes peuvent réagir aux changements au fur et à mesure qu'ils se produisent, au lieu de se fier à des instructions rigides et préprogrammées.
Alors, comment cela fonctionne-t-il dans la réalité ? Prenons l'exemple d'un robot opérant dans un entrepôt. Des caméras capturent en continu son environnement, et un modèle de vision effectue une détection d'objets en temps réel afin d'identifier les obstacles, les étagères et les chemins.
Ces détections facilitent la localisation, aidant le robot à déterminer sa position précise au sein de l'installation. Sur la base de ces informations visuelles, des algorithmes d'optimisation ajustent instantanément son itinéraire, lui permettant de naviguer efficacement et de maintenir une automatisation fluide même lorsque les conditions changent.
Surveillance des infrastructures et détection plus intelligente des défauts
Les lignes électriques et les équipements du réseau doivent être inspectés régulièrement afin de garantir leur sécurité et leur fiabilité. La plupart du temps, ces inspections des services publics impliquent encore des contrôles manuels, qui prennent du temps et sont difficiles à gérer dans les zones étendues ou éloignées.
Vision AI offre un moyen plus simple de surveiller les infrastructures sans dépendre uniquement des visites programmées sur site. Des modèles tels que YOLO26 peuvent detect sur les isolateurs des lignes électriques, notamment les fissures, la corrosion ou les dommages visibles, directement à partir d'images capturées dans des conditions réelles en extérieur.
En analysant les données visuelles en temps réel, ces systèmes peuvent signaler des problèmes potentiels qui, autrement, pourraient passer inaperçus. L'identification précoce de ces problèmes réduit le risque de défaillance des équipements, minimise les pannes imprévues et favorise des opérations de maintenance plus proactives.
Mesurer le retour sur investissement des produits intelligents basés sur la vision
Pour les chefs d'entreprise, l'IA visuelle ne se résume pas à ses performances techniques. Elle a également un impact commercial mesurable.
Lorsqu'ils sont mis en œuvre de manière réfléchie, les systèmes axés sur la vision peuvent améliorer l'efficacité, réduire les coûts et accroître la précision. Ces gains contribuent également à améliorer l'expérience utilisateur et à renforcer les performances globales.
Voici quelques domaines où cet impact est particulièrement évident :
Réduction des tâches manuelles : les systèmes de vision automatisent les tâches répétitives d'inspection, de surveillance et de vérification, réduisant ainsi la dépendance aux processus manuels et permettant aux équipes de se concentrer sur des tâches plus stratégiques.
Cycles décisionnels plus rapides : l'analyse visuelle en temps réel permet aux systèmes de detect ou de déclencher des actions instantanément, ce qui réduit les temps de réponse et garantit le bon déroulement des opérations.
Moins d'erreurs opérationnelles : la détection automatisée apporte de la cohérence. En réduisant la supervision humaine dans les tâches routinières, les organisations constatent souvent moins d'erreurs et des résultats plus fiables.
Amélioration de l'engagement des utilisateurs : les produits capables de voir et de réagir intelligemment semblent plus interactifs et pertinents. Cela renforce la confiance des utilisateurs, améliore leur expérience et favorise leur adoption à long terme.
Principaux points à retenir
La vision IA permet aux produits d'interpréter les informations visuelles en temps réel, favorisant ainsi une automatisation plus intelligente et des expériences plus réactives. Grâce à des fonctionnalités telles que la détection, le suivi et la segmentation, les systèmes dépassent les règles de base pour prendre des décisions adaptées au contexte. Des modèles efficaces tels que Ultralytics permettent de créer des produits évolutifs et compétitifs basés sur la vision.