Entdecken Sie, wie Optimierungsalgorithmen die Leistung von KI und ML verbessern, vom Training neuronaler Netze bis hin zu realen Anwendungen in den Bereichen Gesundheitswesen und Landwirtschaft.
Ein Optimierungsalgorithmus dient als zentrale Rechenmaschine, die den Trainingsprozess von Machine-Learning- (ML) und Deep-Learning- (DL) Modellen steuert. Seine Hauptaufgabe besteht darin, die internen Modellgewichte und -verzerrungen iterativ anzupassen, um den Fehler zwischen den vorhergesagten Ergebnissen und den tatsächlichen Zielen zu minimieren. Sie können sich diesen Prozess wie einen Wanderer vorstellen, der versucht, einen nebligen Berg hinunterzusteigen, um den tiefsten Punkt im Tal zu erreichen. Der Optimierungsalgorithmus fungiert als Wegweiser und bestimmt die Richtung und die Größe der Schritte, die der Wanderer machen muss, um den Talgrund zu erreichen, was dem Zustand entspricht, in dem die Verlustfunktion minimiert und die Vorhersagegenauigkeit des Modells maximiert ist.
Das Training eines neuronalen Netzwerks umfasst einen sich wiederholenden Zyklus aus Vorhersage, Fehlerberechnung und Parameteraktualisierungen. Der Optimierungsalgorithmus steuert die „Aktualisierungsphase” dieses Zyklus. Sobald ein Stapel von Trainingsdaten verarbeitet wurde, berechnet das System einen Gradienten – einen Vektor, der in Richtung des steilsten Fehleranstiegs zeigt – mithilfe einer Methode namens Backpropagation.
Der Optimierer aktualisiert dann die Modellparameter in entgegengesetzter Richtung zum Gradienten, um den Fehler zu reduzieren. Das Ausmaß dieser Aktualisierung wird durch einen entscheidenden Hyperparameter bestimmt, der als Lernrate bezeichnet wird. Ist der Schritt zu groß, könnte das Modell das globale Minimum überschreiten; ist er zu klein, kann das Training unzumutbar langsam werden oder in einem lokalen Minimum stecken bleiben. Fortgeschrittene Ressourcen wie die Stanford CS231n-Optimierungsnotizen bieten tiefere technische Einblicke in diese Dynamik.
Unterschiedliche Probleme erfordern unterschiedliche Strategien. Obwohl es viele Varianten gibt, dominieren einige wenige Schlüsselalgorithmen die moderne KI-Entwicklung:
Optimierungsalgorithmen arbeiten still im Hintergrund fast jeder erfolgreichen KI-Lösung und wandeln Daten in verwertbare Informationen um.
Es ist wichtig, den Optimierungsalgorithmus von anderen Komponenten des Lernprozesses zu unterscheiden, um den Arbeitsablauf effektiv zu verstehen.
In modernen Frameworks erfolgt die Auswahl eines Optimierungsalgorithmus häufig über ein einziges Argument. Das folgende Beispiel
zeigt, wie man ein YOLO26 Modell unter Verwendung des
AdamW Optimierer innerhalb des ultralytics package. Users can also leverage the
Ultralytics for a no-code approach to managing these training
sessions.
from ultralytics import YOLO
# Load the latest YOLO26 model (recommended for new projects)
model = YOLO("yolo26n.pt")
# Train the model using the 'AdamW' optimization algorithm
# The optimizer iteratively updates weights to minimize loss on the dataset
results = model.train(data="coco8.yaml", epochs=5, optimizer="AdamW")
Für diejenigen, die sich für die Mechanismen auf niedrigerer Ebene interessieren, bieten Frameworks wie PyTorch und TensorFlow Optimizers umfangreiche Dokumentationen zur Implementierung und Anpassung dieser Algorithmen für benutzerdefinierte Forschungsarchitekturen.