Découvrez ce qu'est l'intersection sur l'union (IoU), comment elle est calculée et son rôle essentiel dans la détection des objets et l'évaluation des modèles d'IA.
L'intersection sur l'union (IoU) est une mesure d'évaluation fondamentale utilisée dans le domaine de la vision artificielle (CV), en particulier pour les tâches de détection d'objets. Elle mesure le chevauchement entre deux limites : la boîte de délimitation prédite générée par un modèle et la boîte de délimitation de vérité, qui est le contour correct étiqueté à la main. Le score obtenu, une valeur comprise entre 0 et 1, quantifie la précision avec laquelle un modèle a localisé un objet dans une image. Un score de 1 représente une correspondance parfaite, tandis qu'un score de 0 indique qu'il n'y a aucun chevauchement. Cette mesure est essentielle pour évaluer la précision de localisation de modèles comme Ultralytics YOLO11.
L'expérience acquise est essentielle pour valider les performances d'innombrables systèmes d'intelligence artificielle. En voici quelques exemples :
L'indice d'utilité n'est pas seulement une mesure d'évaluation ; il fait également partie intégrante du processus d'apprentissage lui-même. De nombreuses architectures modernes de détection d'objets, y compris les variantes d'Ultralytics YOLOv8 et YOLO11, utilisent le rapport coût-efficacité ou ses variations directement dans leurs fonctions de perte. Ces pertes avancées basées sur l'indice d'utilité, telles que l'indice d'utilité généralisé (GIoU), l'indice de distance (DIoU) ou l'indice d'utilité complet (CIoU), permettent au modèle d'apprendre à prédire des boîtes de délimitation qui non seulement se chevauchent bien, mais qui prennent également en compte des facteurs tels que la distance entre les centres et la cohérence du rapport d'aspect. Cela permet une convergence plus rapide et de meilleures performances de localisation par rapport aux pertes de régression traditionnelles. Vous trouverez des comparaisons détaillées entre les différents modèles YOLO dans notre documentation.
Le suivi de l'IoU pendant l'entraînement du modèle et l'ajustement des hyperparamètres aide les développeurs à affiner les modèles pour une meilleure localisation. Des outils comme Ultralytics HUB permettent de suivre l'indice d'intégrité et d'autres paramètres, ce qui simplifie le cycle d'amélioration des modèles. Malgré son utilité très répandue, l'indice d'utilité standard peut parfois être insensible, en particulier pour les boîtes qui ne se chevauchent pas. C'est cette limitation qui a motivé le développement des variantes de la méthode de calcul de l'indice d'intégrité susmentionnées. Néanmoins, l'indice d'utilité reste une pierre angulaire de l'évaluation de la vision par ordinateur.
Si le taux d'utilisation est essentiel, il est important de comprendre sa relation avec d'autres indicateurs :
Comment fonctionne l'IdO
À la base, l'indice d'utilité calcule le rapport entre l'intersection (zone de chevauchement) et l'union (zone totale couverte par les deux boîtes) des boîtes de délimitation prédites et des boîtes de délimitation réelles. Imaginez deux carrés qui se chevauchent. L'"intersection" est la zone partagée où ils se chevauchent. L'"union" est la zone totale que les deux carrés couvrent ensemble, en ne comptant la partie qui se chevauche qu'une seule fois. En divisant l'intersection par l'union, l'indice d'utilité fournit une mesure normalisée de l'alignement de la boîte prédite sur l'objet réel. Ce concept simple mais puissant est la pierre angulaire de l'apprentissage profond moderne pour la détection d'objets.
L'un des éléments clés de l'utilisation de l'indice de confiance est la définition d'un "seuil d'indice de confiance". Ce seuil est une valeur prédéfinie (par exemple, 0,5) qui détermine si une prédiction est correcte. Si le score de l'indice d'utilité d'une boîte prédite est supérieur à ce seuil, elle est classée comme "vrai positif". Si le score est inférieur, il s'agit d'un "faux positif". Ce seuil influence directement d'autres mesures de performance telles que la précision et le rappel, et constitue un élément essentiel dans le calcul de la précision moyenne (mAP), une mesure standard pour l'évaluation des modèles de détection d'objets sur des ensembles de données de référence tels que COCO.