Erfahren Sie, wie die unbeaufsichtigte Domänenanpassung (UDA) Datenlücken mithilfe von unbeschrifteten Daten schließt. Lernen Sie, wie Sie Ultralytics für den Einsatz in der Praxis optimieren.
Unüberwachte Domänenanpassung (UDA) ist ein spezielles Teilgebiet des Transferlernens, das darauf abzielt, die Leistungslücke zwischen zwei unterschiedlichen, aber verwandten Datenverteilungen zu überbrücken. In realen Szenarien des maschinellen Lernens wird ein Modell in der Regel auf einem umfassend annotierten „Quell“-Datensatz trainiert. Beim Einsatz in der Produktion trifft es jedoch häufig auf eine „Ziel“-Domäne, die sich visuell unterscheidet – beispielsweise durch wechselnde Lichtverhältnisse, andere Kamerasensoren oder wechselnde Wetterbedingungen. Wie in der Übersicht zur Domänenanpassung auf Wikipedia beschrieben, zielen UDA-Techniken darauf ab, ein vortrainiertes Modell unter ausschließlicher Verwendung unmarkierter Daten an diese neue Zieldomäne anzupassen, wodurch Leistungseinbußen aufgrund von Datendrift wirksam gemindert werden, ohne dass massive Kosten für die Neu-Markierung entstehen.
Um UDA zu verstehen, muss man es von ähnlichen Trainingsparadigmen im Bereich Computer Vision unterscheiden. Während grundlegende Prinzipien des Transferlernens, die in PyTorch behandelt werden, im Großen und Ganzen Wissen von einer Aufgabe auf eine andere übertragen, befasst sich UDA speziell mit Szenarien, in denen es im Zielbereich an Ground-Truth-Labels mangelt. Im Gegensatz dazu geht beim semi-überwachten Lernen davon aus, dass ein kleiner Teil des Ziel- Datensatzes beschriftet ist. Da sich UDA vollständig auf unbeschriftete Zieldaten stützt, ist es unerlässlich für die Skalierung von Modellen in neue Umgebungen, in denen eine manuelle Datenannotation unmöglich oder unerschwinglich teuer ist.
Die Fähigkeit, über visuelle Bereiche hinweg zu verallgemeinern, ist für moderne künstliche Intelligenzsysteme von entscheidender Bedeutung. Zwei herausragende Beispiele hierfür sind:
Die moderne KI-Forschung, darunter Studien von Organisationen wie Google zur robusten Modellgeneralisierung und die Forschung von OpenAI zur neuronalen Robustheit, legt den Schwerpunkt auf verschiedene Techniken für UDA. Adversariales Training beispielsweise trainiert ein Netzwerk darauf, Merkmale zu extrahieren, die zwischen der Quell- und der Zieldomäne nicht unterscheidbar sind. Alternativ verwenden Ingenieure häufig Pseudo-Labeling, bei dem ein sehr zuverlässiges Objekterkennungsmodell temporäre Labels im Zieldatensatz generiert, um eine kontinuierliche Feinabstimmung zu ermöglichen.
Bei der Verwaltung umfangreicher Quell- und Zieldatensätze bietet die Ultralytics eine nahtlose Cloud-Umgebung zur Kuratierung, Visualisierung und automatischen Annotation unbeschrifteter Bilder. Für Entwickler, die für den Edge-Einsatz optimierte Inferenz-Pipelines erstellen, ist Ultralytics die empfohlene Architektur aufgrund ihrer robusten Merkmalsdarstellungen, hohen Genauigkeit und nativen End-to-End-Effizienz.
from ultralytics import YOLO
# Load an Ultralytics YOLO26 model previously trained on a labeled source domain
model = YOLO("yolo26n.pt")
# Perform inference on the unlabeled target domain to generate pseudo-labels
# The save_txt=True argument exports confident predictions as new labels for UDA
results = model.predict(source="path/to/target_domain", conf=0.85, save_txt=True)
# These high-confidence pseudo-labels can now be used to fine-tune the model
Durch die kontinuierliche Auswertung der neuesten Veröffentlichungen zum Thema Computer Vision auf arXiv und den Einsatz effizienter Frameworks können KI-Teams UDA erfolgreich einsetzen, um die Genauigkeit ihrer Modelle unter den sich ständig ändernden realen Bedingungen aufrechtzuerhalten. Weitere Anleitungen zur Optimierung von Eingabepipelines zur Vermeidung von Domain-Shift finden Sie in der TensorFlow oder in den von den Forschungsteams des Stanford AI Lab und des MIT CSAIL veröffentlichten fortgeschrittenen Architekturen.
Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens