Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024

Comprendre la détection des contours dans le traitement d'images

Abirami Vina

5 min de lecture

25 août 2025

Détection des contours dans le traitement d'image. Apprenez à utiliser Sobel, Canny et d'autres algorithmes de détection des contours pour détecter avec précision les contours et obtenir une reconnaissance robuste des contours.

En tant qu'humains, nous reconnaissons naturellement les bords des objets, suivons leurs courbes et remarquons les textures sur leurs surfaces lorsque nous regardons une image. Pour un ordinateur, cependant, la compréhension commence au niveau des pixels individuels.

Un pixel, la plus petite unité d'une image numérique, stocke la couleur et la luminosité en un seul point. En suivant les changements de ces valeurs de pixel à travers une image, un ordinateur peut détecter des motifs qui révèlent des détails clés.

En particulier, le traitement d'image utilise les données des pixels pour mettre en évidence les caractéristiques essentielles et supprimer les distractions. Une technique courante de traitement d'image est la détection des contours, qui identifie les points où la luminosité ou la couleur change brusquement pour délimiter les objets, marquer les frontières et ajouter de la structure.

Cela permet aux ordinateurs de séparer les formes, de mesurer les dimensions et d'interpréter la façon dont les parties d'une scène se connectent. La détection des contours est souvent la première étape de l'analyse d'image avancée.

Fig. 1. Exemple montrant l'image originale ainsi que les sorties de différentes méthodes de détection de contours. (Source)

Dans cet article, nous examinerons ce qu'est la détection de contours, comment elle fonctionne et ses applications concrètes. Commençons !

Concepts de détection des contours

La détection des contours consiste à rechercher les endroits d'une image où la luminosité ou la couleur change sensiblement d'un point à l'autre. Si le changement est faible, la zone apparaît lisse. Si le changement est brusque, il marque souvent la limite entre deux régions différentes.

Voici quelques-unes des raisons pour lesquelles ces changements de pixels se produisent :

  • Discontinuités normales de la surface : Lorsque deux surfaces se rencontrent selon un angle, comme le coin d'un mur ou le bord d'une boîte, ce changement brusque d'orientation produit une limite claire dans l'image.
  • Discontinuités de profondeur : Elles apparaissent lorsque les objets sont à des distances différentes de la caméra, produisant une séparation visible qui aide le système à les distinguer.
  • Changements de couleur ou de texture de la surface : Cela se produit lorsqu'une zone a une couleur ou une texture différente de la zone adjacente, créant une séparation visible.
  • Changements d'illumination : Ils résultent de changements d'éclairage, y compris des ombres ou des reflets sur les surfaces, créant des séparations visibles même lorsque les surfaces elles-mêmes sont lisses ou continues.
Fig. 2. Différents types de discontinuités de bord dans les images. (Source)

Comment fonctionne la reconnaissance de détection de contours ?

La détection des contours commence généralement par la transformation d'une image couleur en une image en niveaux de gris, de sorte que chaque point ne montre que la luminosité. Il est ainsi plus facile pour l'algorithme de se concentrer sur les différences de lumière et d'obscurité plutôt que sur la couleur.

Ensuite, des filtres spéciaux peuvent scanner l'image pour trouver les endroits où la luminosité change soudainement. Ces filtres calculent la pente de variation de la luminosité, appelée gradient. Un gradient plus élevé est causé par une plus grande différence entre les points proches, ce qui signale souvent un bord.

L'algorithme continue ensuite d'affiner l'image, en supprimant les petits détails et en ne conservant que les lignes et les formes les plus importantes. Le résultat est un contour clair et une image de sortie qui peuvent être utilisés pour une analyse plus approfondie.

Évolution de la détection des contours et du traitement d'image

Avant de nous plonger plus en détail dans la détection des contours, discutons de son évolution au fil du temps.

Le traitement d'image a commencé avec des méthodes simples basées sur des règles, telles que le seuillage et le filtrage, pour nettoyer et améliorer les images. À l'ère analogique, cela signifiait travailler avec des photographies ou des films en utilisant des filtres optiques, des loupes ou des traitements chimiques pour faire ressortir les détails. 

Des techniques telles que l'ajustement du contraste, la réduction du bruit, le réglage de l'intensité de l'image et la détection de base des contours ont permis de rendre les images d'entrée plus claires et de mettre en évidence les formes et les textures. Dans les années 1960 et 1970, le passage du traitement analogique au traitement numérique a ouvert la voie à l'analyse moderne dans des domaines tels que l'astronomie, l'imagerie médicale et la surveillance par satellite.

Dans les années 1980 et 1990, des ordinateurs plus rapides ont permis de s'attaquer à des tâches plus complexes telles que l'extraction de caractéristiques, la détection de formes et la reconnaissance d'objets de base. Des algorithmes comme l'opérateur de Sobel et Canny ont offert une détection des bords plus précise, tandis que la reconnaissance de formes a trouvé des applications dans tous les domaines, de l'automatisation industrielle à la lecture de textes imprimés grâce à la reconnaissance optique de caractères.

Détection des contours et vision par ordinateur au XXIe siècle

Aujourd'hui, les progrès constants de la technologie ont conduit au développement de la vision par ordinateur. La vision artificielle, ou vision par ordinateur, est une branche de l'IA qui se concentre sur l'apprentissage des machines pour interpréter et comprendre les informations visuelles. 

Alors que le traitement d'image traditionnel, comme le double seuillage (qui rend les images plus claires en conservant les bords forts et en supprimant les bords faibles) et la détection de contours, suivait des règles fixes et ne pouvait traiter que des tâches spécifiques, la vision par ordinateur utilise des modèles basés sur les données qui peuvent apprendre à partir d'exemples et s'adapter à de nouvelles situations. 

De nos jours, les systèmes d'imagerie vont bien au-delà de la simple amélioration des images ou de la détection des contours. Ils peuvent reconnaître des objets, suivre les mouvements et comprendre le contexte d'une scène entière. 

L'une des techniques clés qui rend cela possible est la convolution. Une opération de convolution est un processus où de petits filtres (également appelés noyaux) scannent une image pour trouver des motifs importants comme les bords, les coins et les textures. Ces motifs deviennent les éléments de base que les modèles de vision par ordinateur utilisent pour reconnaître et comprendre les objets.

Par exemple, les modèles de vision par ordinateur tels que Ultralytics YOLO11 utilisent ces caractéristiques basées sur la convolution pour effectuer des tâches avancées telles que la segmentation d'instances. Ceci est étroitement lié à la détection des contours, car la segmentation d'instances nécessite de délimiter avec précision les limites de chaque objet dans une image. 

Alors que la détection de contours se concentre sur la recherche de changements d'intensité dans les pixels de contour pour marquer les bords des objets, la segmentation d'instance s'appuie sur cette idée pour détecter les bords, classer et séparer chaque objet dans sa propre région.

Fig 3. Un aperçu de l'utilisation de YOLO11 et de la segmentation d'instance. (Source)

Algorithmes et approches de détection des contours

Même avec l'essor de la vision par ordinateur, le traitement d'image reste un élément important de nombreuses applications. En effet, la vision par ordinateur s'appuie souvent sur des étapes de prétraitement d'image de base. 

Avant de détecter des objets ou de comprendre une scène, les systèmes nettoient généralement l'image, réduisent le bruit et trouvent les contours pour faire ressortir les détails clés. Ces étapes rendent les modèles avancés plus précis et efficaces.

Ensuite, explorons certains des algorithmes de traitement d'image les plus courants utilisés pour détecter les contours et leur fonctionnement. 

Détection de contours de Sobel

La détection de contours de Sobel est une méthode clé utilisée pour trouver les contours des objets dans une image. Au lieu d'analyser chaque détail à la fois, elle se concentre sur les zones où la luminosité change brusquement d'un pixel au pixel voisin. 

Ces changements soudains marquent généralement le point où un objet se termine et où un autre commence, ou où un objet rencontre l'arrière-plan. En isolant ces bords, Sobel transforme une image complexe en un contour plus propre, plus facile à traiter par d'autres systèmes pour des tâches telles que le suivi des mouvements, la détection des formes ou la reconnaissance des objets.

Vous pouvez considérer la détection de contours de Sobel comme un détecteur de gradient qui mesure la façon dont l'intensité change à travers une image. Au fond, cela fonctionne par le biais d'une opération de convolution : faire glisser de petites matrices, appelées noyaux, sur l'image et calculer les sommes pondérées des valeurs des pixels voisins. 

Ces noyaux sont conçus pour accentuer les variations de luminosité le long des directions horizontales et verticales. Contrairement aux modèles d'apprentissage profond, où les noyaux sont appris à partir des données, Sobel utilise des noyaux fixes pour mettre en évidence efficacement les contours sans nécessiter d'entraînement.

Voici un aperçu plus détaillé du fonctionnement de la méthode de détection des contours de Sobel :

  • Utilisation de deux filtres 3×3 : Cette méthode utilise deux minuscules grilles 3×3, appelées filtres. Considérez-les comme des pochoirs qui glissent sur l'image dans les directions horizontale (direction x) et verticale (direction y). Une grille est conçue pour trouver les bords horizontaux, et l'autre pour les bords verticaux.

  • Calcul du gradient : Chaque filtre détermine la rapidité avec laquelle la luminosité change et la direction du gradient. Un changement important signifie une arête possible.

  • Combinaison des résultats : Les résultats horizontaux et verticaux sont combinés pour déterminer la force et la direction globales du bord à chaque pixel.

  • Détection des bords : Les pixels avec une magnitude de gradient élevée sont marqués comme des bords forts.

  • Délimitation des contours : Ces bords aident à définir les formes des objets et à séparer les différentes régions de l'image.
Fig. 4. La détection de contours de Sobel peut mettre en évidence les principaux contours d'une image d'entrée et produire une carte des contours. (Source) 

Détection des contours de Canny

La détection des contours de Canny est une autre méthode populaire pour trouver les contours d'une image. Elle est connue pour produire des contours nets et précis. Contrairement aux techniques de détection de contours de base, elle suit une série d'étapes soigneusement conçues pour filtrer le bruit, affiner les limites et se concentrer sur les contours les plus importants. 

Voici un bref aperçu du fonctionnement d'un détecteur de contours de Canny :

  • Lissage de l'image : L'image est d'abord floutée avec un filtre gaussien, une technique de lissage qui réduit le bruit et les petits détails qui pourraient être confondus avec des bords.
  • Détection des changements de luminosité : L'algorithme recherche ensuite des changements brusques de luminosité, en utilisant des calculs de gradient pour mesurer la force et la direction de ces changements.

  • Affinement des bords : Seuls les points les plus forts le long de chaque ligne détectée sont conservés, tandis que les points plus faibles sont supprimés, ce qui donne des bords nets et propres.

  • Classification des bords : Chaque pixel est étiqueté comme fort, faible ou non un bord, en fonction des valeurs seuils de changement de luminosité.

  • Nettoyage final : les arêtes faibles connectées aux arêtes fortes sont conservées ; toutes les autres sont rejetées, ne laissant que des limites claires et connectées.
Fig 5. Image originale et son image de sortie respective après avoir utilisé le détecteur de contours de Canny. (Source)

Parce qu'elle fournit des résultats précis tout en filtrant le bruit, la détection des contours de Canny est largement utilisée dans les domaines où la précision est importante. Par exemple, elle est utilisée dans des secteurs tels que l'imagerie médicale, la cartographie par satellite, la numérisation de documents et la vision robotique.

Détection de bords basée sur le gradient vs. basée sur la gaussienne

Jusqu'à présent, les deux exemples de détection de contours que nous avons examinés sont Sobel et Canny. Bien que les deux visent à trouver des contours, ils abordent le problème différemment.

Les méthodes basées sur le gradient (comme Sobel, Prewitt et Scharr) détectent les bords en recherchant des changements brusques de luminosité, appelés gradient. Elles analysent l'image et marquent les endroits où ce changement est le plus fort. Ces méthodes sont simples, rapides et fonctionnent bien lorsque les images sont claires. Cependant, elles sont sensibles au bruit : de minuscules variations de luminosité peuvent être confondues avec des bords.

Les méthodes basées sur la gaussienne (comme Canny ou le laplacien du gaussien) ajoutent une étape supplémentaire pour résoudre ce problème : le floutage de l'image au préalable. Ce lissage, souvent effectué avec un filtre gaussien, réduit les petites variations qui pourraient créer de faux bords. Après le lissage, ces méthodes recherchent toujours des changements brusques de luminosité, mais les résultats sont plus propres et plus précis pour les images bruitées ou de faible qualité.

Fig. 6. Détection de contours basée sur le gradient vs. basée sur Gauss. Image de l'auteur.

Applications concrètes de la détection de contours

Maintenant que nous comprenons mieux le fonctionnement de la détection de contours, explorons ses applications concrètes.

Utilisation de la détection de contours pour identifier les fissures

L'inspection de grandes structures en béton, telles que les ponts et les immeubles de grande hauteur, est souvent une tâche difficile et dangereuse. Ces structures peuvent s'étendre sur de longues distances ou atteindre de hautes altitudes, ce qui rend les inspections traditionnelles lentes, coûteuses et risquées. Ces inspections nécessitent généralement des échafaudages, un accès par corde, des mesures manuelles de près ou de la photographie.

Une approche intéressante a été explorée en 2019, lorsque des chercheurs ont testé une méthode plus sûre et plus rapide utilisant des drones équipés de caméras haute résolution pour capturer des images d'entrée détaillées des surfaces en béton. Ces images ont ensuite été traitées avec diverses techniques de détection de contours pour identifier automatiquement les fissures.

L'étude a montré que cette méthode réduisait considérablement la nécessité d'un accès humain direct aux zones dangereuses et accélérait les inspections. Cependant, sa précision dépendait toujours de facteurs tels que les conditions d'éclairage, la clarté de l'image et le fonctionnement stable du drone. Dans certains cas, un examen humain était encore nécessaire pour éliminer les faux positifs.

Application de la détection de contours dans l'imagerie médicale

Les radiographies et les IRM contiennent souvent des perturbations visuelles appelées bruit, qui peuvent rendre les détails fins plus difficiles à voir. Cela devient un défi pour les médecins lorsqu'ils essaient de repérer les bords d'une tumeur, de tracer le contour d'un organe ou de surveiller des changements subtils au fil du temps.

Une étude récente d'imagerie médicale a testé la performance des méthodes courantes de détection de contours, telles que Sobel, Canny, Prewitt et Laplacian, sur des images bruitées. Les chercheurs ont ajouté différents types et niveaux de bruit aux images et ont vérifié avec quelle précision chaque méthode pouvait délimiter les caractéristiques importantes.

Canny produisait généralement les contours les plus nets, même en cas de bruit important, mais ce n'était pas le meilleur dans tous les cas. Certaines méthodes fonctionnaient mieux avec certains types de bruit, il n'y a donc pas de solution unique parfaite.

Fig. 7. Canny (d–f) fournit des contours plus nets que Sobel (g–i) à mesure que le bruit augmente. (Source)

Ceci souligne l'importance des technologies telles que la vision par ordinateur. En combinant des algorithmes avancés et des modèles d'IA de vision, ces solutions peuvent aller au-delà de la simple détection de contours pour fournir des résultats plus précis et fiables, même dans des conditions difficiles.

Avantages de la détection de contours

Voici quelques-uns des avantages de l'utilisation de la détection de contours et du traitement d'image :  

  • Meilleure compression des données : La détection des contours permet de représenter les images en utilisant uniquement les caractéristiques clés, ce qui réduit la taille des fichiers tout en conservant les informations essentielles. Cela rend le stockage et la transmission plus efficaces.

  • Localisation d'objets plus précise : En identifiant avec précision les limites des objets, la détection des contours améliore la façon dont les systèmes peuvent localiser et suivre les objets, ce qui profite aux applications telles que l'IA visuelle dans la robotique et les véhicules autonomes.

  • Détection de caractéristiques multi-échelle : Les techniques de détection de contours peuvent analyser les images à différentes échelles, en capturant à la fois les petits détails et les formes plus larges. Cette flexibilité est utile dans diverses tâches, de l'analyse de texture à la compréhension de scène.

Limites de l'utilisation du traitement d'image pour la détection des contours

Bien qu'il existe de nombreux avantages à la détection de contours dans le traitement d'images, elle s'accompagne également de quelques défis. Voici quelques-unes des principales limitations à prendre en compte :

  • Problèmes avec les textures complexes : Dans les images avec des motifs complexes ou répétitifs, la détection des contours produit souvent de nombreux contours faux ou non pertinents, ce qui complique l'analyse ultérieure et réduit la fiabilité.

  • Sensible à l'éclairage : Les variations de luminosité, les ombres et les reflets peuvent amener les détecteurs de contours à mal interpréter les changements d'éclairage comme des limites d'objet, ce qui entraîne des résultats incohérents.

  • Aucune identification d’objet : Bien que les contours mettent en évidence où les objets commencent et se terminent, ils ne montrent pas ce que sont les objets. Un traitement supplémentaire est nécessaire pour attribuer une signification ou des étiquettes aux contours détectés.

Quand la vision par ordinateur peut-elle être utilisée pour la détection des contours ?

La détection des contours s'inspire de la façon dont nos yeux et notre cerveau travaillent ensemble pour donner un sens au monde. En ce qui concerne la vision humaine, des neurones spécialisés du cortex visuel sont très sensibles aux contours, aux lignes et aux limites. 

Ces indices visuels nous aident à déterminer rapidement où un objet se termine et où un autre commence. C'est pourquoi même un simple dessin au trait peut être instantanément reconnaissable : notre cerveau s'appuie fortement sur les contours pour identifier les formes et les objets.

La vision par ordinateur vise à imiter cette capacité, mais va encore plus loin. Les modèles tels que Ultralytics YOLO11 vont au-delà de la simple mise en évidence des contours et de l'amélioration de l'image. Ils peuvent détecter des objets, les délimiter avec précision et suivre les mouvements en temps réel. Ce niveau de compréhension plus approfondi les rend essentiels dans les scénarios où la simple détection des contours ne suffit pas.

Utilisation d'Ultralytics YOLO11 pour détecter les bords avec plus de précision

Voici quelques tâches de vision par ordinateur clés prises en charge par YOLO11 qui s'appuient sur la détection de contours et vont au-delà :

  • Détection d'objets : Elle identifie et localise plusieurs objets dans une image ou une vidéo en dessinant des boîtes englobantes autour de chacun, donnant une vue claire de ce qui est présent et où chaque objet est positionné.

  • Segmentation d'instance : Cela implique de décomposer les objets au niveau du pixel, produisant des contours nets et précis même lorsque les objets se chevauchent ou ont des formes irrégulières.

  • Estimation de la pose : L'objectif ici est de déterminer la position, l'orientation ou la posture d'un objet ou d'une personne, ce qui aide à surveiller les mouvements ou à détecter les changements structurels au fil du temps.

  • Suivi d'objets : Cette tâche consiste à suivre un objet lorsqu'il se déplace dans les images vidéo, en assurant une identification cohérente pour une observation précise à long terme.

  • Classification d'images : Elle attribue des étiquettes à des objets ou à des images entières en fonction de leurs caractéristiques visuelles, ce qui facilite l'organisation et l'interprétation de grands ensembles de données.

Détection des bords dans l'infrastructure avec la vision par ordinateur

Un bon exemple d'amélioration par la vision artificielle d'une application qui reposait traditionnellement sur la détection des contours est la détection des fissures dans les infrastructures et les actifs industriels. Les modèles de vision artificielle tels que YOLOv8 peuvent être entraînés pour identifier avec précision les fissures sur les routes, les ponts et les pipelines. La même technique peut également être appliquée à la maintenance des aéronefs, aux inspections de bâtiments et au contrôle de la qualité de la fabrication, ce qui permet d'accélérer les inspections et d'améliorer la sécurité.

Fig. 8. Un exemple d'utilisation de YOLO11 pour la segmentation de fissures. (Source)

Principaux points à retenir

La détection des contours a parcouru un long chemin, des premières méthodes simples aux techniques avancées capables de repérer même les limites subtiles dans des images complexes. Elle permet de faire ressortir les détails importants, de mettre en évidence les zones clés et de préparer les images à une analyse plus approfondie, ce qui en fait un élément essentiel du traitement d'image.

En vision par ordinateur, la détection des contours joue un rôle important dans la définition des formes, la séparation des objets et l'extraction d'informations utiles. Elle est utilisée dans de nombreux domaines tels que l'imagerie médicale, les inspections industrielles, la conduite autonome et la sécurité pour fournir une compréhension visuelle précise et fiable.

Rejoignez notre communauté et explorez notre dépôt GitHub pour en savoir plus sur l'IA. Si vous cherchez à démarrer votre propre projet d'IA de vision, consultez nos options de licence. Découvrez plus d'applications telles que l'IA dans le secteur de la santé et l'IA de vision dans le commerce de détail en visitant nos pages de solutions.

Construisons ensemble l'avenir
de l'IA !

Commencez votre parcours avec l'avenir de l'apprentissage automatique

Démarrer gratuitement
Lien copié dans le presse-papiers