Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024
Glossaire

ReLU fuyant

Découvrez la puissance de l'activation Leaky ReLU pour l'IA et le ML. Résolvez le problème de la mort de ReLU et améliorez les performances du modèle dans CV, NLP, GAN et plus encore !

L'unité linéaire rectifiée à fuite, ou Leaky ReLU, est une fonction d'activation utilisée dans les réseaux neuronaux (NN) et constitue une amélioration directe de la fonction Unité linéaire rectifiée (ReLU) standard. Elle a été conçue pour résoudre le problème de la "ReLU mourante", où les neurones peuvent devenir inactifs et cesser d'apprendre pendant l'entraînement. En introduisant une pente faible et non nulle pour les valeurs d'entrée négatives, Leaky ReLU garantit que les neurones ont toujours un gradient, ce qui permet un entraînement plus stable et cohérent dans les modèles d'apprentissage profond (DL). Cette simple modification s'est avérée efficace dans diverses architectures, contribuant à améliorer les performances du modèle et la dynamique de l'entraînement.

Comment ReLU avec fuite résout le problème de la disparition du neurone

La principale motivation derrière Leaky ReLU est de résoudre le problème de la mort des neurones. Dans une fonction ReLU standard, toute entrée négative dans un neurone entraîne une sortie de zéro. Si un neurone reçoit constamment une entrée négative, il produira toujours zéro. Par conséquent, le gradient qui traverse ce neurone pendant la rétropropagation sera également nul. Cela signifie que les poids du neurone ne sont plus mis à jour, et il cesse effectivement de participer au processus d'apprentissage—il « meurt ».

Leaky ReLU résout ce problème en autorisant un gradient positif faible lorsque l'unité n'est pas active. Au lieu de produire zéro pour les entrées négatives, elle produit une valeur multipliée par une petite constante (la "fuite"). Cela garantit que le neurone n'a jamais un gradient nul, ce qui lui permet de récupérer et de continuer à apprendre. Cette approche a été détaillée pour la première fois dans l'article sur l'Évaluation empirique des activations rectifiées dans les réseaux convolutionnels.

Applications concrètes

La capacité de Leaky ReLU à favoriser un entraînement plus stable l'a rendue précieuse dans plusieurs domaines de l'intelligence artificielle (IA).

  • Réseaux antagonistes génératifs (GAN) : ReLU avec fuite est fréquemment utilisé dans les réseaux discriminateurs des réseaux antagonistes génératifs (GAN). Les GAN impliquent un équilibre délicat entre un générateur et un discriminateur, et les gradients qui s'annulent de la ReLU standard peuvent déstabiliser cet entraînement. Comme l'expliquent des ressources telles que le blog de Google pour les développeurs sur les GAN, les gradients cohérents et non nuls de la ReLU avec fuite aident les deux réseaux à apprendre plus efficacement, ce qui conduit à la génération de données synthétiques de meilleure qualité.
  • Modèles de détection d'objets : Les premiers modèles de détection d'objets, mais influents, y compris certaines versions de YOLO, ont utilisé Leaky ReLU. Dans les réseaux neuronaux convolutifs profonds (CNN), les neurones mourants peuvent empêcher le modèle d'apprendre les caractéristiques cruciales. Leaky ReLU aide à garantir que tous les neurones restent actifs, améliorant ainsi la capacité du modèle à détecter des objets dans divers jeux de données comme COCO. Bien que de nombreuses architectures modernes comme Ultralytics YOLO11 utilisent maintenant des fonctions plus avancées, Leaky ReLU a été un élément clé dans l'établissement de leurs fondations.

Leaky ReLU vs. Autres fonctions d'activation

Leaky ReLU est l'une des nombreuses fonctions d'activation conçues pour améliorer la ReLU originale. Comprendre sa relation avec les autres aide à sélectionner la bonne fonction pour une tâche donnée.

  • ReLU : La principale différence est que ReLU est complètement inactif pour les entrées négatives, tandis que Leaky ReLU maintient un petit gradient constant.
  • SiLU et GELU : Les fonctions d'activation plus récentes comme SiLU (Sigmoid Linear Unit) et GELU (Gaussian Error Linear Unit) fournissent des courbes lisses, non monotones, qui peuvent parfois conduire à une meilleure précision. On les trouve souvent dans les modèles avancés comme les Transformers. Cependant, elles sont plus complexes sur le plan computationnel que l'opération linéaire simple de Leaky ReLU. Un aperçu détaillé des fonctions d'activation peut fournir d'autres comparaisons.
  • ReLU paramétrique (PReLU) : PReLU est une variante où le coefficient de fuite est appris pendant l'entraînement, ce qui en fait un paramètre du modèle plutôt qu'un hyperparamètre fixe.

Le choix optimal de la fonction d'activation dépend souvent de l'architecture spécifique, de l'ensemble de données (tel que ceux disponibles sur Ultralytics Datasets) et des résultats du réglage des hyperparamètres. Leaky ReLU reste un choix solide pour sa simplicité, son faible coût de calcul et son efficacité à prévenir la mort des neurones.

Les principaux frameworks d'apprentissage profond tels que PyTorch et TensorFlow fournissent des implémentations simples, comme le montre leur documentation officielle pour LeakyReLU de PyTorch et LeakyReLU de TensorFlow. Cette accessibilité permet aux développeurs d'expérimenter et de l'intégrer facilement dans leurs modèles à l'aide de plateformes comme Ultralytics HUB.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers