Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Semi-Supervised Learning (Teilüberwachtes Lernen)

Entdecken Sie, wie Semi-Supervised Learning beschriftete und unbeschriftete Daten kombiniert, um KI-Modelle zu verbessern, die Kennzeichnungskosten zu senken und die Genauigkeit zu erhöhen.

Semi-überwachtes Lernen (SSL) ist ein leistungsfähiges Paradigma im maschinellen Lernens (ML), das die Lücke zwischen vollständig überwachtem Lernen und unüberwachten Lernen. Während überwachte Methoden vollständig beschriftete Datensätze erfordern und unüberwachte Methoden ganz ohne Kennzeichnungen arbeiten, arbeitet SSL mit SSL arbeitet mit einer kleinen Menge beschrifteter Daten neben einem viel größeren Pool unbeschrifteter Daten. In vielen realen Szenarien ist die Beschaffung von Rohdaten relativ günstig, aber der Prozess der Datenbeschriftung ist jedoch teuer, zeitaufwändig und erfordert menschliches Fachwissen. SSL behebt diesen Engpass, indem es die begrenzten gelabelten Beispiele zur Steuerung des Lernprozesses verwendet. den Lernprozess leitet und es dem Modell ermöglicht, Strukturen und Muster aus den riesigen unbeschrifteten Segmenten zu extrahieren. Modellgenauigkeit und Generalisierung.

Wie teils überwachtes Lernen funktioniert

Der grundlegende Mechanismus hinter SSL besteht in der Weitergabe von Informationen von den beschrifteten Daten an die unbeschrifteten Daten. Der Prozess beginnt im Allgemeinen mit dem Training eines Anfangsmodells auf dem kleinen markierten Datensatz. Dieses Modell wird dann zur Ableitung von Vorhersagen für die nicht beschrifteten Daten abzuleiten. Die zuverlässigsten Vorhersagen - oft als Pseudo-Etiketten bezeichnet - werden als Basis und das Modell wird anhand dieses erweiterten Datensatzes erneut trainiert. Dieser iterative Zyklus ermöglicht neuronale Netze Entscheidungsgrenzen lernen, die Entscheidungsgrenzen zu erlernen, die robuster sind als diejenigen, die allein aus den markierten Daten gelernt wurden.

Zu den gängigen Techniken, die bei SSL eingesetzt werden, gehören:

  • Pseudo-Beschriftung: Das Modell generiert Beschriftungen für nicht beschriftete Daten, und Vorhersagen mit hoher Konfidenz werden zu den Trainingsdaten hinzugefügt. Dies wird oft in Verbindung Verbindung mit Konfidenzschwellen verwendet.
  • Regularisierung der Konsistenz: Diese Methode ermutigt das Modell, die gleiche Vorhersage für ein Originalbild und eine gestörte Version des Bildes (z. B. nach Anwendung von Datenerweiterung). Wenn das Modell das Objekt versteht Wenn das Modell das Objekt versteht, sollte das Spiegeln oder leichte Drehen des Bildes die Klassifizierung nicht verändern. Sie können mehr über Konzepte der Konsistenzregularisierung in der wissenschaftlichen Literatur nachlesen.
  • Graph-basierte Methoden: Datenpunkte werden als Knoten in einem Graphen dargestellt, wobei die Kanten die Ähnlichkeit widerspiegeln. Beschriftungen werden von beschrifteten Knoten zu ihren unbeschrifteten Nachbarn weitergegeben, eine Technik, die häufig in der Graph Neural Network (GNN) Forschung diskutiert wird.

Anwendungsfälle in der Praxis

Halbüberwachtes Lernen ist vor allem in Branchen von großem Nutzen, in denen Daten im Überfluss vorhanden sind, es aber an Expertenkommentaren mangelt. kaum vorhanden ist.

  1. Medizinische Bildanalyse: Im Gesundheitswesen ist die Erzeugung eines beschrifteten Datensatzes für Aufgaben wie Tumorerkennung müssen hochbezahlte Radiologen MRTs oder CT-Scans manuell beschriften. Mit SSL können Forscher ein Modell auf einem kleinen Satz ärztlich verifizierter Scans trainieren und dann Tausende von unkommentierten Krankenhausarchiven zur Leistung zu verbessern. Dadurch werden die Kosten erheblich gesenkt und gleichzeitig die hohen Diagnosestandards der KI im Gesundheitswesen.
  2. Spracherkennung: Spezielle Sprachassistenten benötigen große Mengen an Audiodaten. Während Tausende von Stunden an Audiodaten zu transkribieren, ist zwar unpraktisch, aber Technologieunternehmen können einen kleinen Satz transkribierter Sprache verwenden, um ein ein Basismodell zu trainieren. Dieses Modell lernt dann aus den Nuancen von Millionen von Stunden nicht transkribierter Audiodaten, die in Webdaten und verfeinert seine Fähigkeit, verschiedene Akzente und Dialekte zu verstehen durch automatische Spracherkennung.

Differenzierung verwandter Konzepte

Um SSL vollständig zu verstehen, ist es hilfreich, es von ähnlichen Lernparadigmen zu unterscheiden:

  • SSL vs. Selbstüberwachtes Lernen: Obwohl sie ein gemeinsames Akronym haben, sind sie unterschiedlich. Selbstüberwachtes Lernen erstellt seine eigenen Beschriftungen aus der Datenstruktur Struktur (z. B. Vorhersage des nächsten Wortes in einem Satz oder eines fehlenden Flecks in einem Bild) ohne menschliche Kennzeichnungen. Semi-überwachtes Lernen stützt sich immer noch auf einen Satz menschlicher Beschriftungen zur Steuerung des Prozesses.
  • SSL vs. Aktives Lernen: Bei aktiven Lernen erkennt das Modell, welche Datenpunkte am verwirrendsten sind, und bittet explizit einen Menschen, sie zu sie zu beschriften. SSL hingegen versucht, die nicht beschrifteten Daten automatisch aufzulösen, ohne den Arbeitsablauf für menschliche Eingaben zu unterbrechen. menschliche Eingaben.
  • SSL vs. Transfer-Lernen: Beim Transfer-Lernen werden Modellgewichte aus einer Ausgangsaufgabe (wie ImageNet) und deren Feinabstimmung auf eine Zielaufgabe. SSL konzentriert sich auf die Verwendung von nicht beschrifteten Daten aus der gleichen Verteilung, um das Lernen von Anfang an zu verbessern.

Praktische Umsetzung

Die Implementierung eines halbüberwachten Arbeitsablaufs beinhaltet oft eine "Lehrer-Schüler"-Schleife oder ein iteratives Training. Unten ist ein konzeptionelles Beispiel unter Verwendung des ultralytics Python , um zu demonstrieren, wie man aus Daten ableiten kann, um Vorhersagen zu treffen, die als Pseudolabels für das weitere Training dienen können.

from ultralytics import YOLO

# Initialize the YOLO11 model (Teacher)
model = YOLO("yolo11n.pt")

# Train initially on a small, available labeled dataset
model.train(data="coco8.yaml", epochs=10)

# Run inference on a directory of unlabeled images to generate predictions
# These results can be filtered by confidence to create 'pseudo-labels'
results = model.predict(source="./unlabeled_data", save_txt=True, conf=0.8)

# The saved text files from prediction can now be combined with the original
# dataset to retrain a robust 'Student' model.

Werkzeuge und Zukunftsaussichten

Deep Learning-Frameworks wie PyTorch und TensorFlow bieten die notwendigen Bausteine für die Implementierung benutzerdefinierter SSL Schleifen und Verlustfunktionen zu implementieren. Da die Modelle immer größer und datenhungriger werden, werden Techniken wie SSL zur Standardpraxis um die Dateneffizienz zu maximieren.

Die kommende Ultralytics soll Arbeitsabläufe wie diese rationalisieren und Teams beim Übergang von Rohdaten zu von Rohdaten zur Modellbereitstellung durch Erleichterung der Datenkuratierung und Prozesse der automatischen Kommentierung. Durch der effektiven Nutzung von nicht beschrifteten Daten können Unternehmen leistungsstarke KI-Lösungen wie YOLO11 schneller und kostengünstiger einsetzen als mit rein überwachten Methoden.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten