Entdecken Sie, wie Semi-Supervised Learning beschriftete und unbeschriftete Daten kombiniert, um KI-Modelle zu verbessern, die Kennzeichnungskosten zu senken und die Genauigkeit zu erhöhen.
Semi-überwachtes Lernen (SSL) ist ein leistungsfähiges Paradigma im maschinellen Lernens (ML), das die Lücke zwischen vollständig überwachtem Lernen und unüberwachten Lernen. Während überwachte Methoden vollständig beschriftete Datensätze erfordern und unüberwachte Methoden ganz ohne Kennzeichnungen arbeiten, arbeitet SSL mit SSL arbeitet mit einer kleinen Menge beschrifteter Daten neben einem viel größeren Pool unbeschrifteter Daten. In vielen realen Szenarien ist die Beschaffung von Rohdaten relativ günstig, aber der Prozess der Datenbeschriftung ist jedoch teuer, zeitaufwändig und erfordert menschliches Fachwissen. SSL behebt diesen Engpass, indem es die begrenzten gelabelten Beispiele zur Steuerung des Lernprozesses verwendet. den Lernprozess leitet und es dem Modell ermöglicht, Strukturen und Muster aus den riesigen unbeschrifteten Segmenten zu extrahieren. Modellgenauigkeit und Generalisierung.
Der grundlegende Mechanismus hinter SSL besteht in der Weitergabe von Informationen von den beschrifteten Daten an die unbeschrifteten Daten. Der Prozess beginnt im Allgemeinen mit dem Training eines Anfangsmodells auf dem kleinen markierten Datensatz. Dieses Modell wird dann zur Ableitung von Vorhersagen für die nicht beschrifteten Daten abzuleiten. Die zuverlässigsten Vorhersagen - oft als Pseudo-Etiketten bezeichnet - werden als Basis und das Modell wird anhand dieses erweiterten Datensatzes erneut trainiert. Dieser iterative Zyklus ermöglicht neuronale Netze Entscheidungsgrenzen lernen, die Entscheidungsgrenzen zu erlernen, die robuster sind als diejenigen, die allein aus den markierten Daten gelernt wurden.
Zu den gängigen Techniken, die bei SSL eingesetzt werden, gehören:
Halbüberwachtes Lernen ist vor allem in Branchen von großem Nutzen, in denen Daten im Überfluss vorhanden sind, es aber an Expertenkommentaren mangelt. kaum vorhanden ist.
Um SSL vollständig zu verstehen, ist es hilfreich, es von ähnlichen Lernparadigmen zu unterscheiden:
Die Implementierung eines halbüberwachten Arbeitsablaufs beinhaltet oft eine "Lehrer-Schüler"-Schleife oder ein iteratives Training. Unten
ist ein konzeptionelles Beispiel unter Verwendung des ultralytics Python , um zu demonstrieren, wie man aus
Daten ableiten kann, um Vorhersagen zu treffen, die als Pseudolabels für das weitere Training dienen können.
from ultralytics import YOLO
# Initialize the YOLO11 model (Teacher)
model = YOLO("yolo11n.pt")
# Train initially on a small, available labeled dataset
model.train(data="coco8.yaml", epochs=10)
# Run inference on a directory of unlabeled images to generate predictions
# These results can be filtered by confidence to create 'pseudo-labels'
results = model.predict(source="./unlabeled_data", save_txt=True, conf=0.8)
# The saved text files from prediction can now be combined with the original
# dataset to retrain a robust 'Student' model.
Deep Learning-Frameworks wie PyTorch und TensorFlow bieten die notwendigen Bausteine für die Implementierung benutzerdefinierter SSL Schleifen und Verlustfunktionen zu implementieren. Da die Modelle immer größer und datenhungriger werden, werden Techniken wie SSL zur Standardpraxis um die Dateneffizienz zu maximieren.
Die kommende Ultralytics soll Arbeitsabläufe wie diese rationalisieren und Teams beim Übergang von Rohdaten zu von Rohdaten zur Modellbereitstellung durch Erleichterung der Datenkuratierung und Prozesse der automatischen Kommentierung. Durch der effektiven Nutzung von nicht beschrifteten Daten können Unternehmen leistungsstarke KI-Lösungen wie YOLO11 schneller und kostengünstiger einsetzen als mit rein überwachten Methoden.