Glossar

Aktives Lernen

Entdecken Sie aktives Lernen, eine kosteneffiziente Methode des maschinellen Lernens, die die Genauigkeit mit weniger Etiketten erhöht. Erfahren Sie, wie es das KI-Training verändert!

Aktives Lernen ist ein spezieller Teilbereich des maschinellen Lernens (ML), bei dem der Lernalgorithmus interaktiv einen Benutzer, der oft als "Orakel" oder menschlicher Annotator bezeichnet wird, um Kennzeichnungen für neue Datenpunkte bitten kann. Im Gegensatz zum traditionellen überwachten Lernen, das in der Regel einen großen, vorab beschrifteten Datensatz erfordert, zielt das aktive Lernen darauf ab, eine hohe Modellleistung mit deutlich weniger Beschriftungsaufwand zu erreichen. Dies geschieht durch die strategische Auswahl der informativsten unmarkierten Instanzen für die Annotation. Dieser Ansatz ist besonders wertvoll in Bereichen, in denen die Beschaffung von beschrifteten Daten teuer und zeitaufwändig ist oder spezielles Expertenwissen erfordert, wie z. B. bei der medizinischen Bildanalyse oder bei komplexen Aufgaben der natürlichen Sprachverarbeitung (NLP). Der Kerngedanke besteht darin, das Modell den Prozess der Datenbeschriftung leiten zu lassen und den menschlichen Aufwand dort zu konzentrieren, wo er zur Verbesserung der Modellgenauigkeit am wirkungsvollsten ist.

Wie aktives Lernen funktioniert

Der Prozess des aktiven Lernens folgt im Allgemeinen einem iterativen Zyklus, der es dem Modell ermöglicht, sich schrittweise mit gezielten Daten zu verbessern:

  1. Erstes Modell-Training: Ein Modell, z. B. ein Ultralytics YOLO-Modell zur Objekterkennung oder Bildsegmentierung, wird auf einem kleinen, anfänglich beschrifteten Datensatz trainiert.
  2. Abfrage unmarkierter Daten: Das trainierte Modell wird verwendet, um Vorhersagen(Schlussfolgerungen) auf einem Pool von nicht markierten Daten zu treffen.
  3. Anwendung der Abfragestrategie: Eine Abfragestrategie analysiert die Vorhersagen des Modells (z. B. auf der Grundlage der Vorhersagezuverlässigkeit oder -unsicherheit), um die informativsten unbeschrifteten Datenpunkte auszuwählen - d. h. diejenigen, bei denen sich das Modell am wenigsten sicher ist oder von denen man erwartet, dass sie die meisten neuen Informationen liefern.
  4. Orakel-Beschriftung: Die ausgewählten Datenpunkte werden einem menschlichen Annotator (dem Orakel) zur Beschriftung vorgelegt. Effektive Verfahren zur Datenerfassung und -beschriftung sind hier entscheidend.
  5. Neutrainieren des Modells: Die neu beschrifteten Daten werden dem Trainingssatz hinzugefügt, und das Modell wird mit diesem erweiterten Datensatz neu trainiert (oder feinabgestimmt).
  6. Iteration: Der Zyklus wird ab Schritt 2 so lange wiederholt, bis ein gewünschtes Leistungsniveau erreicht ist, das Budget für die Kennzeichnung erschöpft ist oder keine signifikant informativen Proben mehr vorhanden sind.

Abfragestrategien

Die Effektivität des aktiven Lernens hängt in hohem Maße von der Abfragestrategie ab, d. h. von dem Algorithmus, mit dem ausgewählt wird, welche unbeschrifteten Datenpunkte als nächstes beschriftet werden sollen. Ziel ist es, die Stichproben auszuwählen, die nach der Kennzeichnung wahrscheinlich zur größten Verbesserung der Modellleistung führen werden. Zu den gängigen Strategien gehören:

  • Uncertainty Sampling: Wählt Instanzen aus, bei denen das Modell am wenigsten Vertrauen in seine Vorhersage hat. Dies wird häufig anhand der Vorhersagewahrscheinlichkeit, der Entropie oder der Spanne zwischen den besten Vorhersagen gemessen.
  • Query-by-Committee (QBC): Verwendet ein Ensemble von Modellen. Instanzen, bei denen sich die Ausschussmitglieder in Bezug auf die Vorhersage am meisten uneinig sind, werden für die Kennzeichnung ausgewählt.
  • Erwartete Modelländerung: Wählt die Instanzen aus, die die größte Änderung an den Parametern oder Gradienten des Modells verursachen würden, wenn ihre Bezeichnungen bekannt wären.
  • Dichte-basierte Ansätze: Priorisiert Instanzen, die nicht nur unsicher, sondern auch repräsentativ für die zugrunde liegenden Datenverteilungen sind.

Einen umfassenden Überblick über die Strategien finden Sie in Ressourcen wie Burr Settles' Active Learning Literaturübersicht.

Relevanz und Nutzen

Aktives Lernen reduziert den Aufwand und die Kosten, die mit der Datenbeschriftung verbunden sind, die oft ein großer Engpass bei der Entwicklung robuster Deep Learning-Modelle (DL) ist. Durch die strategische Fokussierung des Annotationsaufwands ermöglicht es Teams:

  • Erzielen Sie höhere Genauigkeit mit weniger Daten: Erzielen Sie eine bessere Modellleistung im Vergleich zu Zufallsstichproben, bei gleichem Budget für die Kennzeichnung.
  • Reduzieren Sie die Kosten für die Beschriftung: Minimieren Sie den Zeit- und Ressourcenaufwand für manuelle Beschriftungen.
  • Beschleunigen Sie die Modellentwicklung: Erreichen Sie die gewünschten Leistungsniveaus schneller, indem Sie die aussagekräftigsten Daten priorisieren. Entdecken Sie, wie aktives Lernen die Entwicklung von Computer Vision beschleunigt.
  • Verbesserung der Modellrobustheit: Die Konzentration auf zweideutige oder schwierige Beispiele kann dazu beitragen, dass Modelle besser verallgemeinert werden können.

Anwendungen in der realen Welt

Aktives Lernen wird in verschiedenen Bereichen eingesetzt, in denen markierte Daten eine Einschränkung darstellen:

  • Medizinische Bildgebung: Bei Aufgaben wie der Tumorerkennung mit YOLO-Modellen ist die Zeit der Radiologen wertvoll. Aktives Lernen wählt die mehrdeutigsten Scans zur Überprüfung aus und optimiert so den Einsatz von Expertenressourcen. Dies ist entscheidend für die Entwicklung effektiver KI-Lösungen im Gesundheitswesen.
  • Verarbeitung natürlicher Sprache (NLP): Bei Aufgaben wie der Analyse von Gefühlen oder der Erkennung von benannten Entitäten (NER) verbessert die Identifizierung informativer Textproben (z. B. solche mit mehrdeutigen Gefühlen oder seltenen Entitäten) für die Beschriftung die Modellgenauigkeit effizient. Tools von Plattformen wie Hugging Face profitieren oft von solchen Techniken.
  • Autonome Fahrzeuge: Die Auswahl anspruchsvoller oder seltener Fahrszenarien (z. B. ungewöhnliche Wetterbedingungen, komplexe Kreuzungen) aus riesigen Mengen unbeschrifteter Fahrdaten für die Beschriftung trägt zur Verbesserung der Sicherheit und Zuverlässigkeit autonomer Fahrsysteme bei.
  • Analyse von Satellitenbildern: Die Identifizierung bestimmter Merkmale oder Veränderungen in großen Satellitenbilddatensätzen kann beschleunigt werden, indem das Modell unsichere Regionen zur Überprüfung durch Experten abfragt.

Aktives Lernen vs. verwandte Konzepte

Es ist wichtig, Active Learning von anderen Lernparadigmen zu unterscheiden, die ebenfalls mit unbeschrifteten Daten arbeiten:

  • Semi-überwachtes Lernen: Verwendet während des Modelltrainings gleichzeitig beschriftete und unbeschriftete Daten. Im Gegensatz zum aktiven Lernen werden hier in der Regel alle verfügbaren unmarkierten Daten passiv verwendet, anstatt bestimmte Instanzen selektiv nach Markierungen abzufragen.
  • Selbst-überwachtes Lernen: Lernt Repräsentationen aus unbeschrifteten Daten, indem es Aufgaben im Vorfeld erstellt (z. B. die Vorhersage eines maskierten Teils eines Bildes). Es erfordert keine menschlichen Anmerkungen während der Pre-Trainingsphase, wohingegen aktives Lernen auf ein Orakel für Beschriftungen angewiesen ist.
  • Verstärkendes Lernen: Lernt durch Versuch und Irrtum durch Interaktionen mit einer Umgebung, wobei es für Aktionen Belohnungen oder Bestrafungen erhält. Es beinhaltet keine Abfrage nach expliziten Kennzeichnungen wie beim aktiven Lernen.
  • Föderiertes Lernen: Konzentriert sich auf das Trainieren von Modellen über dezentrale Geräte hinweg, wobei die Daten lokal gehalten werden, um in erster Linie Bedenken hinsichtlich des Datenschutzes auszuräumen. Aktives Lernen konzentriert sich auf die effiziente Beschriftungserfassung. Diese Techniken können manchmal auch kombiniert werden.

Werkzeuge und Umsetzung

Die Implementierung von Active Learning beinhaltet oft die Integration von ML-Modellen mit Annotationstools und die Verwaltung des Daten-Workflows. Frameworks und Bibliotheken wie scikit-learn bieten einige Funktionalitäten, während spezialisierte Bibliotheken für bestimmte Aufgaben existieren. Annotationssoftware wie Label Studio kann in Active Learning-Pipelines integriert werden und ermöglicht es Annotatoren, Labels für abgefragte Proben bereitzustellen. Plattformen wie DagsHub bieten Tools für den Aufbau und die Verwaltung dieser Pipelines, wie in ihrem YOLO VISION 2023-Vortrag über DagsHub Active Learning Pipelines erläutert. Die effektive Verwaltung von sich entwickelnden Datensätzen und trainierten Modellen ist von entscheidender Bedeutung, und Plattformen wie Ultralytics HUB bieten eine Infrastruktur für die Organisation dieser Ressourcen während des gesamten Entwicklungszyklus. Erforschen Sie das Ultralytics GitHub Repository und treten Sie der Ultralytics Community bei, um Diskussionen und Ressourcen für die Implementierung fortgeschrittener ML-Techniken zu erhalten.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert