Erfahren Sie, wie der Adam-Optimierer effizientes Training neuronaler Netze mit adaptiven Lernraten, Dynamik und realen Anwendungen in der KI ermöglicht.
Adam (Adaptive Moment Estimation) ist ein beliebter und leistungsstarker Optimierungsalgorithmus, der beim maschinellen Lernen (ML) und Deep Learning (DL) eingesetzt wird. Er wurde entwickelt, um effizient die optimalen Werte für die Parameter eines Modells (seine Gewichte und Verzerrungen) zu finden, indem er sie auf der Grundlage der Trainingsdaten iterativ aktualisiert. Adam wird für seine schnelle Konvergenz und seine Effektivität bei einer Vielzahl von Problemen geschätzt und ist daher für viele Praktiker die erste Wahl, wenn es um das Training benutzerdefinierter Modelle geht. Seine Entwicklung war ein wichtiger Schritt, um das Training großer, komplexer Modelle praktikabler zu machen.
Die wichtigste Neuerung von Adam ist seine Fähigkeit, die Lernrate für jeden einzelnen Parameter anzupassen. Anstatt eine einzige, feste Lernrate für alle Gewichte im Netz zu verwenden, berechnet Adam eine individuelle Lernrate, die sich mit fortschreitendem Training anpasst. Dies wird durch die Kombination der Vorteile von zwei anderen Optimierungsmethoden erreicht: RMSProp und Momentum. Adam verfolgt zwei Hauptkomponenten: das erste Moment (den Mittelwert der Gradienten, ähnlich dem Momentum) und das zweite Moment (die unzentrierte Varianz der Gradienten). Durch diese Kombination können fundiertere Aktualisierungen vorgenommen werden, indem größere Schritte für Parameter mit konsistenten Gradienten und kleinere Schritte für Parameter mit verrauschten oder spärlichen Gradienten unternommen werden. Die Methode wird in der ursprünglichen Adam-Forschungsarbeit von Kingma und Ba ausführlich beschrieben.
Es ist hilfreich, Adam mit anderen gängigen Optimierern zu vergleichen, um seine Stärken zu verstehen.
Dank seiner Effizienz und Robustheit eignet sich Adam für eine breite Palette von Anwendungen.
Innerhalb des Ultralytics-Ökosystems sind Adam und seine Variante AdamW verfügbare Optimierer für das Training von Ultralytics YOLO-Modellen. Die Nutzung der adaptiven Lernraten von Adam kann die Konvergenz beim Training von Objekterkennungs-, Instanzsegmentierungs- oder Posenschätzungsmodellen wie YOLO11 oder YOLOv10 beschleunigen. Während SGD aufgrund der potenziell besseren endgültigen Verallgemeinerung häufig als Standardoptimierer für einige YOLO-Modelle empfohlen wird, bietet Adam eine robuste Alternative, die insbesondere bei anfänglichen Experimenten nützlich ist. Sie können den Optimierer und andere Trainingseinstellungen leicht konfigurieren. Tools wie Ultralytics HUB rationalisieren den Prozess und ermöglichen es Benutzern, Modelle mit verschiedenen Optimierern, einschließlich Adam, entweder lokal oder über Cloud-Training zu trainieren. Frameworks wie PyTorch und TensorFlow bieten Standardimplementierungen von Adam, die innerhalb des Ultralytics-Frameworks verwendet werden.