Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Leaky ReLU

Entdecken Sie die Leistungsfähigkeit der Leaky ReLU-Aktivierung für KI und ML. Lösen Sie das Problem der "sterbenden ReLU" und steigern Sie die Modellleistung in CV, NLP, GANs und mehr!

Leaky Rectified Linear Unit, oder Leaky ReLU, ist eine Aktivierungsfunktion, die in neuronalen Netzen (NN) verwendet wird und eine direkte Verbesserung der Standard-Rectified Linear Unit (ReLU)-Funktion darstellt. Sie wurde entwickelt, um das Problem des "Dying ReLU" zu beheben, bei dem Neuronen inaktiv werden und während des Trainings aufhören zu lernen. Durch die Einführung einer kleinen, von Null verschiedenen Steigung für negative Eingangswerte stellt Leaky ReLU sicher, dass Neuronen immer einen Gradienten haben, was ein stabileres und konsistenteres Training in Deep-Learning (DL)-Modellen ermöglicht. Diese einfache Modifikation hat sich in verschiedenen Architekturen als wirksam erwiesen und trägt zur Verbesserung der Modellleistung und der Trainingsdynamik bei.

Wie Leaky ReLU das Dying-Neuron-Problem löst

Die Hauptmotivation hinter Leaky ReLU ist die Lösung des Problems der sterbenden Neuronen. In einer Standard-ReLU-Funktion führt jede negative Eingabe in ein Neuron zu einer Ausgabe von Null. Wenn ein Neuron konsistent negative Eingaben empfängt, gibt es immer Null aus. Folglich ist auch der Gradient, der während der Backpropagation durch dieses Neuron fließt, Null. Das bedeutet, dass die Gewichte des Neurons nicht mehr aktualisiert werden und es sich effektiv nicht mehr am Lernprozess beteiligt—es "stirbt".

Leaky ReLU behebt dies, indem es einen kleinen, positiven Gradienten zulässt, wenn die Einheit nicht aktiv ist. Anstatt Null für negative Eingaben auszugeben, gibt sie einen Wert aus, der mit einer kleinen Konstanten (dem "Leak") multipliziert wird. Dies stellt sicher, dass das Neuron nie einen Null-Gradienten hat, wodurch es sich erholen und weiterlernen kann. Dieser Ansatz wurde erstmals in der Arbeit über die Empirische Bewertung von rektifizierten Aktivierungen in Convolutional Networks detailliert beschrieben.

Anwendungsfälle in der Praxis

Die Fähigkeit von Leaky ReLU, ein stabileres Training zu fördern, hat sie in verschiedenen Bereichen der künstlichen Intelligenz (KI) wertvoll gemacht.

  • Generative Adversarial Networks (GANs): Leaky ReLU wird häufig in den Diskriminatornetzwerken von Generative Adversarial Networks (GANs) verwendet. GANs beinhalten ein empfindliches Gleichgewicht zwischen einem Generator und einem Diskriminator, und verschwindende Gradienten von Standard-ReLU können dieses Training destabilisieren. Wie in Ressourcen wie dem Google Developer Blog über GANs erläutert, helfen die konsistenten, von Null verschiedenen Gradienten von Leaky ReLU beiden Netzwerken, effektiver zu lernen, was zur Generierung von qualitativ hochwertigeren synthetischen Daten führt.
  • Objekterkennungsmodelle: Frühe, aber einflussreiche Objekterkennungsmodelle, darunter einige Versionen von YOLO, haben Leaky ReLU verwendet. In tiefen Convolutional Neural Networks (CNNs) können absterbende Neuronen verhindern, dass das Modell entscheidende Merkmale lernt. Leaky ReLU trägt dazu bei, dass alle Neuronen aktiv bleiben, wodurch die Fähigkeit des Modells verbessert wird, Objekte in verschiedenen Datensätzen wie COCO zu erkennen. Während viele moderne Architekturen wie Ultralytics YOLO11 inzwischen fortschrittlichere Funktionen verwenden, war Leaky ReLU eine Schlüsselkomponente bei der Etablierung ihrer Grundlagen.

Leaky ReLU vs. andere Aktivierungsfunktionen

Leaky ReLU ist eine von mehreren Aktivierungsfunktionen, die entwickelt wurden, um das ursprüngliche ReLU zu verbessern. Das Verständnis ihrer Beziehung zu anderen Funktionen hilft bei der Auswahl der richtigen Funktion für eine bestimmte Aufgabe.

  • ReLU: Der Hauptunterschied besteht darin, dass ReLU für negative Eingaben vollständig inaktiv ist, während Leaky ReLU einen kleinen, konstanten Gradienten beibehält.
  • SiLU und GELU: Neuere Aktivierungsfunktionen wie SiLU (Sigmoid Linear Unit) und GELU (Gaussian Error Linear Unit) bieten glatte, nicht-monotone Kurven, die manchmal zu einer besseren Genauigkeit führen können. Diese finden sich häufig in fortgeschrittenen Modellen wie Transformers. Sie sind jedoch rechenintensiver als die einfache lineare Operation von Leaky ReLU. Ein detaillierter Überblick über Aktivierungsfunktionen kann weitere Vergleiche liefern.
  • Parametric ReLU (PReLU): PReLU ist eine Variante, bei der der Leckkoeffizient während des Trainings gelernt wird, wodurch er zu einem Parameter des Modells und nicht zu einem festen Hyperparameter wird.

Die optimale Wahl der Aktivierungsfunktion hängt oft von der spezifischen Architektur, dem Datensatz (wie z. B. den auf Ultralytics Datasets verfügbaren) und den Ergebnissen des Hyperparameter-Tunings ab. Leaky ReLU bleibt eine gute Wahl aufgrund seiner Einfachheit, des geringen Rechenaufwands und der Wirksamkeit bei der Verhinderung des Neuronentods.

Wichtige Deep-Learning-Frameworks wie PyTorch und TensorFlow bieten unkomplizierte Implementierungen, wie in ihrer offiziellen Dokumentation für PyTorch's LeakyReLU und TensorFlow's LeakyReLU zu sehen ist. Diese Zugänglichkeit ermöglicht es Entwicklern, einfach zu experimentieren und es über Plattformen wie Ultralytics HUB in ihre Modelle zu integrieren.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert