Comprendre la détection des contours dans le traitement des images

Abirami Vina

5 minutes de lecture

25 août 2025

Détection des contours dans le traitement des images. Apprenez les algorithmes de Sobel, Canny et autres algorithmes de détection des contours afin de détecter avec précision les contours et d'obtenir une reconnaissance robuste des contours.

En tant qu'êtres humains, nous reconnaissons naturellement les bords des objets, nous suivons leurs courbes et nous remarquons les textures de leurs surfaces lorsque nous regardons une image. Pour un ordinateur, cependant, la compréhension commence au niveau des pixels individuels.

Un pixel, la plus petite unité d'une image numérique, stocke la couleur et la luminosité en un seul point. En suivant les variations des valeurs de ces pixels sur l'ensemble de l'image, un ordinateur peut détecter des motifs qui révèlent des détails essentiels.

En particulier, le traitement d'images utilise les données des pixels pour mettre en évidence les caractéristiques essentielles et éliminer les distractions. Une technique courante de traitement d'image est la détection des contours, qui identifie les points où la luminosité ou la couleur changent brusquement pour délimiter les objets, marquer les frontières et ajouter une structure.

Cela permet aux ordinateurs de séparer les formes, de mesurer les dimensions et d'interpréter la façon dont les parties d'une scène sont reliées entre elles. La détection des contours est souvent la première étape d'une analyse d'image avancée.

Fig. 1. Exemple montrant l'image originale et les résultats de différentes méthodes de détection des contours.(Source)

Dans cet article, nous verrons ce qu'est la détection des contours, comment elle fonctionne et quelles sont ses applications dans le monde réel. Commençons par le commencement !

Concepts de détection des contours

La détection des contours consiste à rechercher les endroits d'une image où la luminosité ou la couleur change sensiblement d'un point à l'autre. Si le changement est faible, la zone semble lisse. Si le changement est net, il marque souvent la limite entre deux régions différentes.

Voici quelques-unes des raisons pour lesquelles ces changements de pixels se produisent :

  • Discontinuités des normales de surface: Lorsque deux surfaces se rencontrent à un angle, comme l'angle d'un mur ou le bord d'une boîte, ce changement brutal d'orientation produit une limite nette dans l'image.
  • Les discontinuités de profondeur: Elles apparaissent lorsque les objets sont à des distances différentes de la caméra, produisant une séparation visible qui aide le système à les distinguer.
  • Changement de couleur ou de texture de la surface: Cela se produit lorsqu'une zone a une couleur ou une texture différente de la zone adjacente, créant une séparation visible.
  • Changements d'éclairage: Elle résulte des changements d'éclairage, notamment des ombres ou des reflets sur les surfaces, qui créent des séparations visibles même lorsque les surfaces elles-mêmes sont lisses ou continues.
Fig. 2. Différents types de discontinuités dans les images.(Source)

Comment fonctionne la reconnaissance par détection des contours ?

La détection des contours commence généralement par la transformation d'une image couleur en une image en niveaux de gris, de sorte que chaque point n'affiche que la luminosité. Il est ainsi plus facile pour l'algorithme de se concentrer sur les différences de luminosité et d'obscurité plutôt que sur la couleur.

Ensuite, des filtres spéciaux peuvent balayer l'image pour trouver les endroits où la luminosité change brusquement. Ces filtres calculent l'intensité du changement de luminosité, appelée gradient. Un gradient plus élevé est dû à une plus grande différence entre des points proches, ce qui signale souvent une arête.

L'algorithme continue ensuite à affiner l'image, en supprimant les petits détails et en ne conservant que les lignes et les formes les plus importantes. Le résultat est un contour clair et une image de sortie qui peut être utilisée pour une analyse plus approfondie.

Évolution de la détection des contours et du traitement des images

Avant de nous pencher plus en détail sur la détection des contours, voyons comment elle s'est développée au fil du temps.

Le traitement des images a commencé par des méthodes simples, basées sur des règles, telles que le seuillage et le filtrage pour nettoyer et améliorer les images. À l'ère analogique, cela signifiait travailler avec des photographies ou des films en utilisant des filtres optiques, des loupes ou des traitements chimiques pour faire ressortir les détails. 

Des techniques telles que l'ajustement du contraste, la réduction du bruit, l'ajustement de l'intensité de l'image et la détection élémentaire des contours ont permis de rendre les images d'entrée plus claires et de mettre en évidence les formes et les textures. Dans les années 1960 et 1970, le passage du traitement analogique au traitement numérique a ouvert la voie à l'analyse moderne dans des domaines tels que l'astronomie, l'imagerie médicale et la surveillance par satellite.

Dans les années 1980 et 1990, des ordinateurs plus rapides ont permis de s'attaquer à des tâches plus complexes telles que l'extraction de caractéristiques, la détection de formes et la reconnaissance d'objets de base. Des algorithmes tels que l'opérateur Sobel et Canny ont permis une détection plus précise des contours, tandis que la reconnaissance des formes a trouvé des applications dans tous les domaines, de l'automatisation industrielle à la lecture de textes imprimés grâce à la reconnaissance optique des caractères.

Détection des contours et vision par ordinateur au 21e siècle

Aujourd'hui, les progrès constants de la technologie ont conduit au développement de la vision par ordinateur. L'IA de la vision, ou vision par ordinateur, est une branche de l'IA qui se concentre sur l'apprentissage des machines à interpréter et à comprendre les informations visuelles. 

Alors que le traitement traditionnel des images, comme le double seuillage (qui rend les images plus claires en conservant les bords forts et en supprimant les bords faibles) et la détection des bords, suivait des règles fixes et ne pouvait traiter que des tâches spécifiques, la vision par ordinateur utilise des modèles fondés sur des données qui peuvent apprendre à partir d'exemples et s'adapter à de nouvelles situations. 

De nos jours, les systèmes d'imagerie vont bien au-delà de la simple amélioration des images ou de la détection des contours. Ils peuvent reconnaître des objets, suivre des mouvements et comprendre le contexte d'une scène entière. 

L'une des techniques clés qui rend cela possible est la convolution. Une opération de convolution est un processus au cours duquel de petits filtres (également appelés noyaux) analysent une image pour trouver des motifs importants tels que les bords, les coins et les textures. Ces motifs deviennent les éléments de base que les modèles de vision par ordinateur utilisent pour reconnaître et comprendre les objets.

Par exemple, des modèles de vision artificielle comme Ultralytics YOLO11 utilisent ces caractéristiques basées sur la convolution pour effectuer des tâches avancées telles que la segmentation d'instances. Cette tâche est étroitement liée à la détection des contours, car la segmentation des instances nécessite de délimiter avec précision les frontières de chaque objet d'une image. 

Alors que la détection des contours se concentre sur les changements d'intensité dans les pixels des contours pour marquer les contours des objets, la segmentation des instances s'appuie sur cette idée pour détecter les contours, classer et séparer chaque objet dans sa propre région.

Fig. 3. Un aperçu de l'utilisation de YOLO11 et de la segmentation des instances.(Source)

Algorithmes et approches de détection des contours

Malgré l'essor de la vision par ordinateur, le traitement d'images reste un élément important de nombreuses applications. En effet, la vision par ordinateur s'appuie souvent sur des étapes de prétraitement d'images de base. 

Avant de détecter des objets ou de comprendre une scène, les systèmes nettoient généralement l'image, réduisent le bruit et repèrent les bords pour faire ressortir les détails clés. Ces étapes rendent les modèles avancés plus précis et plus efficaces.

Ensuite, nous allons explorer quelques-uns des algorithmes de traitement d'image les plus courants utilisés pour détecter les contours et leur fonctionnement. 

Détection des arêtes de Sobel

La détection des contours de Sobel est une méthode clé utilisée pour trouver les contours des objets dans une image. Au lieu d'analyser tous les détails à la fois, elle se concentre sur les zones où la luminosité change fortement d'un pixel à l'autre. 

Ces changements soudains marquent généralement le point où un objet se termine et un autre commence, ou le point où un objet rencontre l'arrière-plan. En isolant ces bords, Sobel transforme une image complexe en un contour plus net, plus facile à traiter par d'autres systèmes pour des tâches telles que le suivi de mouvements, la détection de formes ou la reconnaissance d'objets.

La détection des contours de Sobel est un détecteur de gradient qui mesure les variations d'intensité sur une image. Il s'agit d'une opération de convolution qui consiste à faire glisser de petites matrices, appelées noyaux, sur l'image et à calculer les sommes pondérées des valeurs des pixels voisins. 

Ces noyaux sont conçus pour accentuer les changements de luminosité dans les directions horizontales et verticales. Contrairement aux modèles d'apprentissage profond, où les noyaux sont appris à partir des données, Sobel utilise des noyaux fixes pour mettre efficacement en évidence les bords sans nécessiter d'apprentissage.

Voici un examen plus approfondi du fonctionnement de la méthode de détection des contours de Sobel :

  • Utilisation de deux filtres 3×3 : Cette méthode utilise deux minuscules grilles 3×3, appelées filtres. Il s'agit de pochoirs qui glissent sur l'image dans les directions horizontale (direction x) et verticale (direction y). L'une des grilles est conçue pour trouver les bords horizontaux et l'autre pour les bords verticaux.

  • Calcul du gradient : Chaque filtre détermine la vitesse à laquelle la luminosité change et la direction du gradient. Un changement important signifie qu'un bord est possible.

  • Combinaison des résultats : Les résultats horizontaux et verticaux sont combinés pour déterminer l'intensité et la direction globales des bords à chaque pixel.

  • Détection des contours : Les pixels présentant une amplitude de gradient élevée sont marqués comme des arêtes fortes.

  • Contourner les limites : Ces bords permettent de définir les formes des objets et de séparer les différentes régions de l'image.
Fig. 4. La détection des contours de Sobel permet de mettre en évidence les principaux contours d'une image d'entrée et de produire une carte des contours. (Source) 

Détection d'arêtes Canny

La détection des contours de Canny est une autre méthode populaire pour trouver les contours d'une image. Elle est réputée pour produire des contours nets et précis. Contrairement aux techniques de base de détection des contours, elle suit une série d'étapes soigneusement conçues pour filtrer le bruit, affiner les limites et se concentrer sur les contours les plus importants. 

Voici un aperçu rapide du fonctionnement d'un détecteur d'arêtes de Canny :

  • Lissage de l'image : L'image est d'abord floutée à l'aide d'un filtre gaussien, une technique de lissage qui réduit le bruit et les petits détails qui pourraient être confondus avec des bords.
  • Détection des changements de luminosité : L'algorithme recherche ensuite les changements brusques de luminosité, en utilisant des calculs de gradient pour mesurer l'intensité et la direction de ces changements.

  • Amincissement des bords : Seuls les points les plus forts de chaque ligne détectée sont conservés, tandis que les points les plus faibles sont supprimés, ce qui permet d'obtenir des bords nets et précis.

  • Classification des arêtes : Chaque pixel est étiqueté comme étant une arête forte, faible ou non, sur la base de valeurs seuils de changement de luminosité.

  • Nettoyage final : Les arêtes faibles connectées aux arêtes fortes sont conservées ; toutes les autres sont éliminées, ce qui ne laisse que des frontières claires et connectées.
Fig. 5. Image originale et son image de sortie respective après utilisation du détecteur d'arêtes Canny.(Source)

Parce qu'elle fournit des résultats précis tout en filtrant le bruit, la détection des contours de Canny est largement utilisée dans les domaines où la précision est importante. Par exemple, elle est utilisée dans des secteurs tels que l'imagerie médicale, la cartographie par satellite, la numérisation de documents et la vision robotique.

Détection des contours basée sur le gradient ou sur la méthode gaussienne

Jusqu'à présent, les deux exemples de détection des contours que nous avons étudiés sont Sobel et Canny. Bien qu'ils visent tous deux à trouver des contours, ils abordent le problème différemment.

Les méthodes basées sur le gradient (comme Sobel, Prewitt et Scharr) détectent les contours en recherchant les changements brusques de luminosité, connus sous le nom de gradient. Elles balayent l'image et marquent les endroits où ce changement est le plus fort. Ces méthodes sont simples, rapides et fonctionnent bien lorsque les images sont claires. Cependant, elles sont sensibles au bruit : de minuscules variations de luminosité peuvent être confondues avec des contours.

Les méthodes gaussiennes (comme Canny ou le Laplacien de Gauss) ajoutent une étape supplémentaire pour traiter ce problème : le lissage de l'image. Ce lissage, souvent effectué à l'aide d'un filtre gaussien, réduit les petites variations susceptibles de créer de faux contours. Après le lissage, ces méthodes recherchent toujours des changements de luminosité nets, mais les résultats sont plus nets et plus précis pour les images bruitées ou de faible qualité.

Fig. 6. Détection des contours basée sur le gradient et sur la méthode gaussienne. Image de l'auteur.

Applications concrètes de la détection des arêtes

Après avoir mieux compris le fonctionnement de la détection des contours, voyons comment elle est appliquée dans des situations réelles.

Utilisation de la détection des arêtes pour identifier les fissures

L'inspection des grandes structures en béton, telles que les ponts et les immeubles de grande hauteur, est souvent une tâche difficile et dangereuse. Ces structures peuvent s'étendre sur de longues distances ou atteindre des hauteurs importantes, ce qui rend les inspections traditionnelles lentes, coûteuses et risquées. En outre, ces inspections nécessitent généralement la mise en place d'échafaudages, l'utilisation de cordes, des mesures manuelles rapprochées ou la prise de photos.

Une approche intéressante a été explorée en 2019, lorsque des chercheurs ont testé une méthode plus sûre et plus rapide utilisant des drones équipés de caméras à haute résolution pour capturer des images d'entrée détaillées des surfaces en béton. Ces images ont ensuite été traitées avec différentes techniques de détection des bords pour identifier automatiquement les fissures.

L'étude a montré que cette méthode réduisait considérablement la nécessité d'un accès humain direct aux zones dangereuses et accélérait les inspections. Cependant, sa précision dépend toujours de facteurs tels que les conditions d'éclairage, la clarté de l'image et la stabilité du fonctionnement du drone. Dans certains cas, un examen humain était encore nécessaire pour éliminer les faux positifs.

Application de la détection des contours à l'imagerie médicale

Les radiographies et les IRM contiennent souvent des perturbations visuelles connues sous le nom de bruit, qui peuvent rendre les détails plus difficiles à voir. Cela représente un défi pour les médecins lorsqu'ils tentent de repérer les bords d'une tumeur, de tracer le contour d'un organe ou de suivre des changements subtils au fil du temps.

Une étude récente sur l'imagerie médicale a testé l'efficacité des méthodes courantes de détection des contours, telles que Sobel, Canny, Prewitt et Laplacien, sur les images bruitées. Les chercheurs ont ajouté différents types et niveaux de bruit aux images et ont vérifié la précision avec laquelle chaque méthode pouvait mettre en évidence les caractéristiques importantes.

Canny a généralement produit les bords les plus nets, même lorsque le bruit était important, mais ce n'était pas la meilleure méthode dans tous les cas. Certaines méthodes fonctionnent mieux avec certains types de bruit, il n'y a donc pas de solution parfaite.

Fig. 7. Canny (d-f) fournit des contours plus nets que Sobel (g-i) lorsque le bruit augmente.(Source)

C'est pourquoi les technologies telles que la vision par ordinateur sont si importantes. En combinant des algorithmes avancés et des modèles d'intelligence artificielle, ces solutions peuvent aller au-delà de la simple détection des contours et fournir des résultats plus précis et plus fiables, même dans des conditions difficiles.

Avantages de la détection des contours

Voici quelques-uns des avantages de la détection des contours et du traitement des images : 

  • Meilleure compression des données : La détection des contours permet de représenter les images en utilisant uniquement les caractéristiques clés, ce qui réduit la taille des fichiers tout en conservant les informations essentielles. Le stockage et la transmission sont ainsi plus efficaces.

  • Localisation plus précise des objets : En identifiant avec précision les limites des objets, la détection des contours améliore la capacité des systèmes à localiser et à suivre les objets, ce qui profite à des applications telles que l'IA de vision dans la robotique et les véhicules autonomes.

  • Détection de caractéristiques à plusieurs échelles : Les techniques de détection des contours peuvent analyser les images à différentes échelles, capturant à la fois les petits détails et les grandes formes. Cette flexibilité est utile pour diverses tâches, de l'analyse des textures à la compréhension des scènes.

Limites de l'utilisation du traitement d'images pour la détection des contours

Si la détection des contours présente de nombreux avantages dans le traitement des images, elle s'accompagne également de quelques difficultés. Voici quelques-unes des principales limitations à prendre en compte :

  • Problèmes liés aux textures complexes : Dans les images présentant des motifs complexes ou répétitifs, la détection des contours produit souvent de nombreux faux contours ou des contours non pertinents, ce qui complique l'analyse ultérieure et réduit la fiabilité.

  • Sensible à l'éclairage : Les variations de luminosité, les ombres et les reflets peuvent amener les détecteurs d'arêtes à mal interpréter les changements d'éclairage comme des limites d'objet, ce qui entraîne des résultats incohérents.

  • Pas d'identification d'objet : Si les bords mettent en évidence les points de départ et d'arrivée des objets, ils n'indiquent pas ce que sont ces objets. Un traitement supplémentaire est nécessaire pour attribuer une signification ou des étiquettes aux bords détectés.

Quand la vision par ordinateur peut-elle être utilisée pour la détection des contours ?

La détection des contours s'inspire de la manière dont nos yeux et notre cerveau travaillent ensemble pour donner un sens au monde. En ce qui concerne la vision humaine, les neurones spécialisés du cortex visuel sont très sensibles aux bords, aux lignes et aux frontières. 

Ces repères visuels nous aident à déterminer rapidement où un objet se termine et où un autre commence. C'est pourquoi même un simple dessin au trait peut être immédiatement reconnaissable : notre cerveau s'appuie fortement sur les bords pour identifier les formes et les objets.

La vision par ordinateur vise à imiter cette capacité, mais va plus loin. Des modèles comme Ultralytics YOLO11 vont au-delà de la simple mise en évidence des contours et de l'amélioration de l'image. Ils sont capables de détecter des objets, d'en tracer les contours avec précision et de suivre les mouvements en temps réel. Ce niveau de compréhension plus approfondi les rend essentiels dans les scénarios où la détection des contours ne suffit pas.

Utiliser Ultralytics YOLO11 pour détecter les bords avec plus de précision

Voici quelques tâches clés de vision par ordinateur prises en charge par YOLO11, qui s'appuient sur la détection des contours et vont au-delà :

  • Détection d'objets: Elle identifie et localise plusieurs objets dans une image ou une vidéo en traçant des boîtes de délimitation autour de chacun d'entre eux, ce qui permet de voir clairement ce qui est présent et où chaque objet est positionné.

  • Segmentation des instances: Il s'agit de décomposer les objets au niveau du pixel, ce qui permet d'obtenir des contours nets et précis, même lorsque les objets se chevauchent ou ont des formes irrégulières.

  • Estimation de la pose: L'objectif est ici de déterminer la position, l'orientation ou la posture d'un objet ou d'une personne, ce qui permet de suivre les mouvements ou de détecter les changements structurels au fil du temps.

  • Suivi d'objets: Cette tâche consiste à suivre un objet au fur et à mesure qu'il se déplace dans les images vidéo, afin de garantir une identification cohérente pour une observation précise à long terme.

  • Classification d'images: Elle attribue des étiquettes à des objets ou à des images entières sur la base de leurs caractéristiques visuelles, ce qui facilite l'organisation et l'interprétation de vastes ensembles de données.

Détection des bords d'une infrastructure par vision artificielle

La détection des fissures dans les infrastructures et les biens industriels est un bon exemple d'amélioration par vision artificielle d'une application qui s'appuyait traditionnellement sur la détection des contours. Les modèles de vision par ordinateur tels que YOLO11 peuvent être entraînés à identifier avec précision les fissures sur les routes, les ponts et les oléoducs. La même technique peut également être appliquée à la maintenance des avions, à l'inspection des bâtiments et au contrôle de la qualité de la fabrication, ce qui permet d'accélérer les inspections et d'améliorer la sécurité.

Fig. 8. Exemple d'utilisation de YOLO11 pour la segmentation des fissures.(Source)

Principaux enseignements

La détection des contours a parcouru un long chemin, depuis les premières méthodes simples jusqu'aux techniques avancées capables de repérer les limites les plus subtiles dans des images complexes. Elle permet de faire ressortir les détails importants, de mettre en évidence les zones clés et de préparer les images pour une analyse plus approfondie, ce qui en fait un élément essentiel du traitement d'images.

Dans le domaine de la vision par ordinateur, la détection des contours joue un rôle important dans la définition des formes, la séparation des objets et l'extraction d'informations utiles. Elle est utilisée dans de nombreux domaines tels que l'imagerie médicale, les inspections industrielles, la conduite autonome et la sécurité pour fournir une compréhension visuelle précise et fiable.

Rejoignez notre communauté et explorez notre dépôt GitHub pour en savoir plus sur l'IA. Si vous souhaitez lancer votre propre projet Vision AI, consultez nos options de licence. Pour en savoir plus sur des applications telles que l 'IA dans le domaine de la santé et l'IA de vision dans le domaine de la vente au détail, consultez nos pages consacrées aux solutions.

Construisons ensemble le futur
de l'IA !

Commencez votre voyage avec l'avenir de l'apprentissage automatique

Commencer gratuitement
Lien copié dans le presse-papiers