Entdecken Sie, wie selbstüberwachtes Lernen die Notwendigkeit manueller Kennzeichnung überflüssig macht. Erfahren Sie mehr über generative und kontrastive SSL-Methoden zur Verbesserung von Ultralytics .
Selbstüberwachtes Lernen (Self-Supervised Learning, SSL) ist ein Paradigma des maschinellen Lernens, bei dem ein System lernt, Daten zu verstehen, indem es seine eigenen Überwachungssignale aus den Daten selbst generiert, anstatt sich auf externe, von Menschen bereitgestellte Labels zu verlassen. Beim traditionellen überwachtem Lernenbenötigen Modelle riesige Mengen manuell annotierter Daten – wie beispielsweise mit „Katze” oder „Hund” beschriftete Bilder –, deren Erstellung kostspielig und zeitaufwendig sein kann. SSL umgeht diesen Engpass, indem es „Vorwandaufgaben” erstellt, bei denen das Modell versteckte oder fehlende Teile der Eingabedaten vorhersagen muss, wodurch es sich selbst effektiv die zugrunde liegende Struktur und die Merkmale beibringt, die für komplexe Aufgaben wie die Objekterkennung und Klassifizierung
Die Grundidee hinter SSL besteht darin, einen Teil der Daten zu maskieren oder zu verbergen und das neuronales Netzwerk (NN) dazu zu zwingen, diese zu rekonstruieren oder die Beziehung zwischen verschiedenen Ansichten derselben Daten vorherzusagen. Dieser Prozess erzeugt reichhaltige, universell einsetzbare Darstellungen, die später für bestimmte nachgelagerte Anwendungen feinabgestimmt werden können.
Es gibt zwei Hauptansätze innerhalb von SSL:
Selbstüberwachtes Lernen ist zu einem Eckpfeiler für die Entwicklung leistungsstarker Grundlagenmodelle in verschiedenen Bereichen. Seine Fähigkeit, riesige Mengen unbeschrifteter Daten zu nutzen, macht es hochgradig skalierbar.
Es ist wichtig, SSL von unüberwachtem Lernenzu unterscheiden. Während beide Methoden unbeschriftete Daten verwenden, konzentriert sich unüberwachtes Lernen in der Regel darauf, versteckte Muster oder Gruppierungen (Clustering) ohne eine bestimmte Vorhersageaufgabe zu finden. SSL hingegen gestaltet den Lernprozess als überwachte Aufgabe, bei der die Beschriftungen automatisch aus der Datenstruktur selbst generiert werden. Darüber hinaus kombiniert das semi-überwachte Lernen eine kleine Menge beschrifteter Daten mit einer großen Menge unbeschrifteter Daten, während reines SSL seine eigenen Beschriftungen vollständig aus dem unbeschrifteten Datensatz erstellt, bevor eine Feinabstimmung erfolgt.
Im Ultralytics sind Modelle wie YOLO26 profitieren erheblich von fortschrittlichen Trainingsstrategien, die häufig ähnliche Prinzipien wie SSL während der Vor-Trainingsphase auf massiven Datensätzen wie ImageNet oder COCO. Dadurch wird sichergestellt, dass die Merkmalsextraktoren bereits robust sind, wenn Benutzer ein Modell für eine bestimmte Aufgabe einsetzen.
Benutzer können diese leistungsstarken vortrainierten Darstellungen nutzen, um Modelle anhand ihrer eigenen benutzerdefinierten Datensätze mithilfe der Ultralytics-Plattform Ultralytics .
Hier ist ein kurzes Beispiel dafür, wie man ein vortrainiertes YOLO26-Modell lädt und mit der Feinabstimmung auf einem neuen Datensatz beginnt, wobei die während des anfänglichen groß angelegten Trainings erlernten Funktionen genutzt werden:
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (weights learned from large-scale data)
model = YOLO("yolo26n.pt")
# Fine-tune the model on a specific dataset (e.g., COCO8)
# This leverages the robust feature representations learned during pre-training
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)
Als Forscher an großen Labors wie Meta AI und Google diese Techniken weiter verfeinern, erweitert SSL die Grenzen des Möglichen im Bereich der generativer KI und Computer Vision. Durch die Verringerung der Abhängigkeit von gekennzeichneten Daten demokratisiert SSL den Zugang zu leistungsstarker KI und ermöglicht es kleineren Teams, anspruchsvolle Modelle für Nischenanwendungen wie den den Schutz wildlebender Tiere oder industrielle Inspektionzu entwickeln.