Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Selbstüberwachtes Lernen

Entdecken Sie, wie selbstüberwachtes Lernen unbeschriftete Daten für effizientes Training nutzt und KI in Computer Vision, NLP und mehr transformiert.

Selbstüberwachtes Lernen (SSL) ist ein transformativer Ansatz innerhalb des breiteren Feldes der künstlichen Intelligenz (KI) , der es Systemen ermöglicht, aus unbeschrifteten Daten zu lernen, ohne dass explizite menschliche Annotationen erforderlich sind. Im Gegensatz zum traditionellen überwachtem Lernen, das stark von umfangreichen Datensätzen mit manuell gekennzeichneten Beispielen abhängt, leitet SSL seine eigenen Überwachungssignale direkt aus den Daten selbst ab. Durch das Erstellen und Lösen von „Vorwandaufgaben“ – wie das Ausfüllen fehlender Wörter in einem Satz oder das Vorhersagen der Drehung eines Bildes – lernt das Modell, die zugrunde liegende Struktur, den Kontext und die Merkmale der Eingabe zu verstehen. Diese Fähigkeit ist entscheidend für die Entwicklung robuster Grundlagenmodelle , die mit minimalem zusätzlichem Training an eine Vielzahl von nachgelagerten Aufgaben angepasst werden können.

Wie selbstüberwachtes Lernen funktioniert

Der Kernmechanismus von SSL besteht darin, einen Teil der verfügbaren Daten zu entfernen und die Neuronales Netzwerk (NN) mit diese zu rekonstruieren. Dieser Prozess zwingt das Modell dazu, qualitativ hochwertige Repräsentationen zu lernen, oder Einbettungendie die semantische Bedeutung erfassen. Es gibt zwei Hauptkategorien von Vortextaufgaben, die in Forschung und Industrie verwendet werden:

  • Generative Methoden: Das Modell repariert beschädigte oder maskierte Daten. Beispielsweise in Natural Language Processing (NLP)maskieren Modelle bestimmte Wörter und versuchen, diese anhand des umgebenden Kontexts vorherzusagen. Im Bereich der Bildverarbeitung werden Techniken wie Masked Autoencoders (MAE) Patches aus einem Bild entfernt und die fehlenden Pixel rekonstruiert.
  • Kontrastives Lernen: Bei diesem Ansatz lernt das Modell, zwischen ähnlichen und unähnlichen Datenpunkten zu unterscheiden. Datenpunkten zu unterscheiden. Algorithmen wie SimCLR wenden an. Datenerweiterung (Beschneiden, Farbverschiebungen) auf ein Bild an und trainiert das Netz, um zu erkennen, dass diese veränderten Versionen dasselbe Objekt darstellen Objekt darstellen, während Darstellungen von anderen Bildern verdrängt werden.

Unterscheidung zwischen SSL und verwandten Konzepten

Um SSL vollständig zu verstehen, ist es hilfreich, es von ähnlichen Lernparadigmen abzugrenzen:

  • Im Gegensatz zum unüberwachten Lernen: Während beide unbeschriftete Daten verwenden, konzentriert sich das unüberwachte Lernen in der Regel auf die Suche nach versteckten Mustern, wie z. B. die Clusterbildung von Kunden oder die Reduzierung der Dimensionalität. SSL zielt speziell darauf ab, Darstellungen zu lernen, die auf andere Aufgaben übertragbar sind, und verhält sich damit effektiv wie überwachtes Lernen, jedoch mit selbst generierten Beschriftungen.
  • Vs. Semi-überwachtes Lernen: Beim semi-überwachten Lernen wird eine kleine Menge beschrifteter Daten mit einer großen Menge unbeschrifteter Daten während derselben Trainingsphase kombiniert. Im Gegensatz dazu wird SSL oft als „Vortrainingsschritt” ausschließlich für unbeschriftete Daten verwendet, gefolgt von einer Feinabstimmung auf beschrifteten Daten.

Anwendungsfälle in der Praxis

Selbstüberwachtes Lernen hat die Branche revolutioniert, indem es den Wert riesiger, unkuratierter Datensätze freilegt. Hier sind zwei konkrete Beispiele für seine Auswirkungen:

  1. Medizinische Bildanalyse: Die Beschaffung von gekennzeichneten medizinischen Daten ist kostspielig und erfordert erfahrene Radiologen. SSL ermöglicht es Modellen, anhand von Tausenden von unbeschrifteten Röntgenbildern oder MRT-Scans vorab trainiert zu werden, um allgemeine anatomische Merkmale zu erlernen. Dieses Vortraining steigert die Leistung erheblich, wenn das Modell später anhand eines kleinen, gekennzeichneten Datensatzes für bestimmte Aufgaben wie die Tumorerkennung, wodurch die Diagnosegenauigkeit mit begrenzter Überwachung verbessert wird.
  2. Autonome Fahrzeuge: Selbstfahrende Autos erzeugen täglich Terabytes an Videodaten. Die Kennzeichnung jedes einzelnen Bildes ist unmöglich. SSL ermöglicht es diesen Systeme, die zeitliche Dynamik zu lernen und Tiefeneinschätzung aus Rohvideos durch Vorhersage zukünftiger Bilder oder Bewertung der Objektkonsistenz im Zeitverlauf. Dies hilft bei der Verbesserung Objektverfolgung und Umweltverständnis ohne ständige menschliche Eingriffe.

Nutzung von vortrainierten Modellen

In der Praxis nutzen die meisten Entwickler SSL, indem sie Modellgewichte , die bereits auf umfangreichen Datensätzen vortrainiert wurden. Beispielsweise wurde das Ultralytics von tiefgreifenden Funktionen zur Merkmalsextraktion, die durch umfangreiches Training verfeinert wurden. Während YOLO überwacht YOLO , basiert das Konzept des Transferlernens auf dem Transfer-Lernen– die Übernahme eines Modells, das visuelle Merkmale versteht, und dessen Anwendung auf eine neue Aufgabe – der wichtigste nachgelagerte Vorteil der SSL-Forschung.

Das folgende Python veranschaulicht, wie ein vorab trainiertes Modell geladen und für einen bestimmten Datensatz feinabgestimmt werden kann. Dieser Arbeitsablauf stützt sich auf die Merkmalsrepräsentationen, die während der anfänglichen Pre-Trainingsphase gelernt wurden.

from ultralytics import YOLO

# Load a pre-trained YOLO26 model (weights act as the learned representation)
model = YOLO("yolo26n.pt")

# Fine-tune the model on a specific task, leveraging its existing visual knowledge
# This transfer learning process is highly efficient due to robust pre-training
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)

# Perform inference to verify the model detects objects correctly
model.predict("https://ultralytics.com/images/bus.jpg", save=True)

Die Zukunft des selbst-überwachten Lernens

Da Forscher auf Modelle drängen, die mehr wie Menschen lernen - durch Beobachtung und nicht durch Auswendiglernen - bleibt SSL weiterhin an der Spitze der Innovation. Große Forschungslabors, darunter Google DeepMind und Meta AIveröffentlichen weiterhin Durchbrüche, die die Abhängigkeit von markierten Daten verringern. Bei Ultralytics integrieren wir diese Fortschritte in unsere Forschung und Entwicklung für YOLO26ein, mit dem Ziel, schnellere, kleinere und genauere Modelle zu entwickeln, die sich effektiv über verschiedene Bereiche hinweg verallgemeinern lassen. Computer Vision (CV) Aufgaben. Werkzeuge wie PyTorch und die kommende Ultralytics machen es einfacher denn je, diese fortschrittlichen Fähigkeiten in realen Produktionsumgebungen einzusetzen.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten