Erfahren Sie, wie kontinuierliches Lernen es KI ermöglicht, neue Fähigkeiten zu erwerben, ohne dabei bereits Gelerntes zu vergessen. Entdecken Sie wichtige Strategien und aktualisieren Sie Ihre Ultralytics Modelle für Edge-KI.
Kontinuierliches Lernen (CL), oft auch als lebenslanges Lernen bezeichnet, beschreibt die Fähigkeit eines Modells künstlicher Intelligenz , im Laufe der Zeit sequenziell neue Aufgaben zu erlernen oder neues Wissen zu erwerben, ohne zuvor gelernte Informationen zu vergessen. Im Gegensatz zu herkömmlichen Pipelines für maschinelles Lernen, bei denen Modelle einmalig anhand eines statischen Datensatzes trainiert und dann eingesetzt werden, ahmt kontinuierliches Lernen die menschliche Fähigkeit nach, sich an neue Umgebungen anzupassen und kontinuierlich aus neuen Erfahrungen zu lernen . Die größte Herausforderung in diesem Bereich ist die Überwindung des katastrophalen Vergessens, einem Phänomen, bei dem das Training eines neuronalen Netzwerks mit neuen Daten zu einer drastischen Verschlechterung seiner Leistung bei älteren Aufgaben führt, da die für die alten Aufgaben optimierten Gewichte überschrieben werden.
In dynamischen realen Umgebungen bleiben Datenverteilungen selten statisch. Beispielsweise muss sich ein visuelles Wahrnehmungssystem in einem autonomen Fahrzeug an wechselnde Jahreszeiten, neue Verkehrsregeln oder unterschiedliche Stadtstrukturen anpassen, ohne die Fähigkeit zu verlieren, grundlegende Verkehrszeichen zu erkennen, die es während seiner anfänglichen Schulung gelernt hat. Eineherkömmliche Neuschulung von Grund auf auf Basis eines kumulativen Datensatzes ist aufgrund von Speicherbeschränkungen oder Datenschutzbedenken oft rechenintensiv und unpraktisch . Kontinuierliches Lernen löst diese Probleme, indem es Modellen eine schrittweise Aktualisierung ermöglicht, wodurch sie effizienter und skalierbarer für Edge-KI-Anwendungen mit begrenzten Ressourcen werden.
Um katastrophales Vergessen zu mildern, wenden Forscher verschiedene Strategien an. Regularisierungsmethoden fügen der Verlustfunktion Einschränkungen hinzu, um signifikante Änderungen an wichtigen Gewichten zu verhindern, die in früheren Aufgaben identifiziert wurden. Wiederholungsmethoden speichern eine kleine Teilmenge früherer Daten (oder generieren synthetische Stichproben mithilfe generativer KI) und mischen diese während des Trainings mit neuen Daten. Schließlich werden durch die Parameterisolierung bestimmte Teilmengen der Modellparameter verschiedenen Aufgaben zugewiesen, um sicherzustellen, dass Aktualisierungen für eine neue Aufgabe die für frühere Aufgaben optimierten Parameter nicht beeinträchtigen. Die jüngsten Fortschritte in den Jahren 2024 und 2025 konzentrierten sich auf die Verwendung von Vision-Sprachmodellen , um besser zu erkennen, welche Merkmale generisch und welche aufgabenspezifisch sind.
Es ist wichtig, kontinuierliches Lernen von Transferlernen zu unterscheiden. Beim Transferlernen dient ein vorab trainiertes Modell als Ausgangspunkt für die Lösung einer neuen spezifischen Aufgabe, wobei die Leistung bei der ursprünglichen Aufgabe in der Regel irrelevant ist. Das Ziel besteht darin, die Leistung im Zielbereich zu maximieren. Im Gegensatz dazu besteht das Ziel des kontinuierlichen Lernens darin, sowohl bei der neuen Aufgabe als auch bei allen vorherigen Aufgaben eine gute Leistung zu erzielen. Während sich das aktive Lernen auf die Auswahl der informativsten Datenpunkte für die Kennzeichnung für das Training konzentriert, konzentriert sich das kontinuierliche Lernen auf den Prozess der Aktualisierung des Modells selbst im Laufe der Zeit.
Während echtes kontinuierliches Lernen spezielle architektonische Anpassungen erfordert, können Benutzer diesen Arbeitsablauf simulieren, indem sie Modelle anhand neuer Daten, gemischt mit einem Puffer alter Daten, feinabstimmen. Ultralytics vereinfacht die Verwaltung dieser Datensätze und die Versionierung von Modellen. Nachfolgend finden Sie ein Beispiel dafür, wie man die Aktualisierung eines Modells mit der Python angehen könnte:
from ultralytics import YOLO
# Load a model previously trained on 'dataset_v1.yaml'
model = YOLO("yolo26n-v1.pt")
# Train the model on a new dataset containing new and old samples
# This helps mitigate catastrophic forgetting by "replaying" old data
results = model.train(
data="dataset_v2_combined.yaml",
epochs=50,
imgsz=640,
lr0=0.001, # Lower learning rate for fine-tuning
)
Trotz der Fortschritte bleibt kontinuierliches Lernen ein aktives Forschungsgebiet. Die Bestimmung des optimalen Plastizitäts-Stabilitäts-Dilemmas– das Gleichgewicht zwischen der Fähigkeit, neue Dinge zu lernen (Plastizität) und der Fähigkeit, alte Dinge zu behalten (Stabilität) – ist schwierig. Darüber hinaus erfordert die Bewertung dieser Systeme robuste Leistungskennzahlen, die sowohl den Vorwärtstransfer (Lerngeschwindigkeit bei neuen Aufgaben) als auch den Rückwärtstransfer (Auswirkungen auf alte Aufgaben) berücksichtigen. Da die Basismodelle immer größer werden, sind effiziente Methoden zur kontinuierlichen Anpassung wie Low-Rank Adaptation (LoRA) von entscheidender Bedeutung, um große Systeme anzupassen , ohne sie komplett neu trainieren zu müssen.