Entdecken Sie, wie selbstüberwachtes Lernen unbeschriftete Daten für effizientes Training nutzt und KI in Computer Vision, NLP und mehr transformiert.
Selbstüberwachtes Lernen (SSL) ist ein transformativer Ansatz innerhalb des breiteren Feldes der künstlichen Intelligenz (KI) , der es Systemen ermöglicht, aus unbeschrifteten Daten zu lernen, ohne dass explizite menschliche Annotationen erforderlich sind. Im Gegensatz zum traditionellen überwachtem Lernen, das stark von umfangreichen Datensätzen mit manuell gekennzeichneten Beispielen abhängt, leitet SSL seine eigenen Überwachungssignale direkt aus den Daten selbst ab. Durch das Erstellen und Lösen von „Vorwandaufgaben“ – wie das Ausfüllen fehlender Wörter in einem Satz oder das Vorhersagen der Drehung eines Bildes – lernt das Modell, die zugrunde liegende Struktur, den Kontext und die Merkmale der Eingabe zu verstehen. Diese Fähigkeit ist entscheidend für die Entwicklung robuster Grundlagenmodelle , die mit minimalem zusätzlichem Training an eine Vielzahl von nachgelagerten Aufgaben angepasst werden können.
Der Kernmechanismus von SSL besteht darin, einen Teil der verfügbaren Daten zu entfernen und die Neuronales Netzwerk (NN) mit diese zu rekonstruieren. Dieser Prozess zwingt das Modell dazu, qualitativ hochwertige Repräsentationen zu lernen, oder Einbettungendie die semantische Bedeutung erfassen. Es gibt zwei Hauptkategorien von Vortextaufgaben, die in Forschung und Industrie verwendet werden:
Um SSL vollständig zu verstehen, ist es hilfreich, es von ähnlichen Lernparadigmen abzugrenzen:
Selbstüberwachtes Lernen hat die Branche revolutioniert, indem es den Wert riesiger, unkuratierter Datensätze freilegt. Hier sind zwei konkrete Beispiele für seine Auswirkungen:
In der Praxis nutzen die meisten Entwickler SSL, indem sie Modellgewichte , die bereits auf umfangreichen Datensätzen vortrainiert wurden. Beispielsweise wurde das Ultralytics von tiefgreifenden Funktionen zur Merkmalsextraktion, die durch umfangreiches Training verfeinert wurden. Während YOLO überwacht YOLO , basiert das Konzept des Transferlernens auf dem Transfer-Lernen– die Übernahme eines Modells, das visuelle Merkmale versteht, und dessen Anwendung auf eine neue Aufgabe – der wichtigste nachgelagerte Vorteil der SSL-Forschung.
Das folgende Python veranschaulicht, wie ein vorab trainiertes Modell geladen und für einen bestimmten Datensatz feinabgestimmt werden kann. Dieser Arbeitsablauf stützt sich auf die Merkmalsrepräsentationen, die während der anfänglichen Pre-Trainingsphase gelernt wurden.
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (weights act as the learned representation)
model = YOLO("yolo26n.pt")
# Fine-tune the model on a specific task, leveraging its existing visual knowledge
# This transfer learning process is highly efficient due to robust pre-training
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)
# Perform inference to verify the model detects objects correctly
model.predict("https://ultralytics.com/images/bus.jpg", save=True)
Da Forscher auf Modelle drängen, die mehr wie Menschen lernen - durch Beobachtung und nicht durch Auswendiglernen - bleibt SSL weiterhin an der Spitze der Innovation. Große Forschungslabors, darunter Google DeepMind und Meta AIveröffentlichen weiterhin Durchbrüche, die die Abhängigkeit von markierten Daten verringern. Bei Ultralytics integrieren wir diese Fortschritte in unsere Forschung und Entwicklung für YOLO26ein, mit dem Ziel, schnellere, kleinere und genauere Modelle zu entwickeln, die sich effektiv über verschiedene Bereiche hinweg verallgemeinern lassen. Computer Vision (CV) Aufgaben. Werkzeuge wie PyTorch und die kommende Ultralytics machen es einfacher denn je, diese fortschrittlichen Fähigkeiten in realen Produktionsumgebungen einzusetzen.