Glossar

Einmaliges Lernen

Entdecken Sie die Leistungsfähigkeit von One-Shot Learning, einer revolutionären KI-Technik, die es ermöglicht, Modelle aus minimalen Daten für reale Anwendungen zu verallgemeinern.

One-Shot Learning (OSL) ist ein Spezialgebiet innerhalb des maschinellen Lernens (ML), bei dem das Ziel darin besteht, neue Beispiele auf der Grundlage nur eines einzigen Trainingsbeispiels für jede Klasse zu klassifizieren. Dies steht in krassem Gegensatz zu herkömmlichen überwachten Lernmethoden, die oft Tausende von markierten Beispielen pro Klasse benötigen, um eine hohe Genauigkeit zu erreichen. OSL ist besonders in Szenarien von Bedeutung, in denen Trainingsdaten knapp, teuer oder zeitaufwendig zu sammeln sind, was es zu einer entscheidenden Technik für reale Anwendungen macht, in denen Datenbeschränkungen üblich sind.

Wie One-Shot Learning funktioniert

Anstatt zu lernen, eine Eingabe direkt einer Klassenbezeichnung aus zahlreichen Beispielen zuzuordnen, lernen OSL-Modelle normalerweise eine Ähnlichkeitsfunktion. Die Kernidee besteht darin, festzustellen, wie ähnlich ein neues, ungesehenes Beispiel (Abfrage) dem einzigen verfügbaren markierten Beispiel (Unterstützung) für jede Klasse ist. Wenn das Abfragebeispiel eine hohe Ähnlichkeit mit dem Support-Beispiel einer bestimmten Klasse aufweist, wird es dieser Klasse zugeordnet. Dazu werden häufig Deep Learning-Architekturen (DL) wie Siamesische Netze verwendet, die zwei Eingaben gleichzeitig verarbeiten, um ihre Ähnlichkeit zu bestimmen. Diese Netze werden oft auf großen Datensätzen (wie ImageNet) durch Transferlernen trainiert, um robuste Merkmalsrepräsentationen zu erlernen, bevor sie durch Techniken wie metrisches Lernen an die OSL-Aufgabe angepasst werden.

Schlüsselkonzepte des One-Shot-Learnings

  • Unterstützungsmenge: Diese enthält das einzelne markierte Beispiel für jede Klasse, aus dem das Modell lernen soll.
  • Abfragesatz: Diese enthält die unmarkierten Beispiele, die das Modell auf der Grundlage der Unterstützungsmenge klassifizieren muss.
  • Lernen der Ähnlichkeit/Metrik: Der Prozess des Erlernens einer Abstandsfunktion oder Metrik, die die Ähnlichkeit zwischen Datenpunkten misst, was für den Vergleich von Abfragebeispielen mit Hilfsbeispielen entscheidend ist.
  • Episodisches Training: Eine übliche Trainingsstrategie, bei der das Modell an vielen kleinen OSL-Aufgaben (Episoden) aus einem größeren Datensatz trainiert wird, um das One-Shot-Szenario während des Trainings zu simulieren.

One-Shot-Learning vs. verwandte Paradigmen

Um OSL zu verstehen, muss man es von verwandten Konzepten unterscheiden:

  • Few-Shot Learning (FSL): OSL wird als eine extreme Variante von FSL angesehen. Während OSL nur ein Beispiel pro Klasse verwendet, verwendet FSL eine kleine Anzahl (k > 1, typischerweise 5 oder 10) von Beispielen pro Klasse. Beide berücksichtigen die Datenknappheit, unterscheiden sich aber in der Anzahl der verfügbaren Beispiele. Weitere Informationen zu diesen Paradigmen finden Sie in unserem Blogbeitrag zum Verständnis von few-shot, zero-shot und transfer learning.
  • Zero-Shot Learning (ZSL): ZSL befasst sich mit einem noch schwierigeren Problem: der Klassifizierung von Instanzen aus Klassen, die während des Trainings nie gesehen wurden. Dies wird in der Regel durch die Nutzung von Zusatzinformationen wie semantischen Attributen oder Textbeschreibungen erreicht, die gesehene und ungesehene Klassen miteinander verbinden. OSL erfordert das Sehen eines Beispiels; ZSL erfordert das Sehen von null Beispielen, benötigt aber zusätzlichen semantischen Kontext.
  • Transfer-Lernen & Feinabstimmung: Während OSL häufig Transfer Learning (Vortraining auf einem großen Datensatz) verwendet, ist das Ziel ein anderes. Beim Standard-Transfer-Lernen oder bei der Feinabstimmung wird in der Regel davon ausgegangen, dass eine angemessene Menge an Zieldaten für die Anpassung zur Verfügung steht, während OSL sich speziell mit der Einschränkung eines Beispiels befasst. Techniken wie das benutzerdefinierte Training von Ultralytics YOLO-Modellen beinhalten oft eine Feinabstimmung der vortrainierten Gewichte, aber normalerweise mit mehr als einem Beispiel pro Klasse.

Anwendungen in der realen Welt

OSL ermöglicht verschiedene Anwendungen, die bisher durch Datenbeschränkungen behindert wurden:

  1. Gesichtserkennung: Sicherheitssysteme oder persönliche Geräte müssen möglicherweise eine Person identifizieren oder verifizieren, nachdem sie mit nur einem einzigen Foto erfasst wurde. Das NIST führt umfangreiche Tests mit Gesichtserkennungstechnologien durch, von denen viele vor ähnlichen Herausforderungen stehen, die nur wenige oder einmalige Aufnahmen erfordern.
  2. Erkennung seltener Objekte: In Bereichen wie der Qualitätskontrolle in der Fertigung oder dem Naturschutz kann die Erkennung seltener Defekte oder gefährdeter Arten nur mit einem oder sehr wenigen Beispielen möglich sein. Während Modelle wie Ultralytics YOLO11 bei der Objekterkennung mit ausreichenden Daten hervorragend abschneiden, könnten OSL-Techniken sie für extrem seltene Klassen ergänzen.
  3. Überprüfung von Unterschriften: Authentifizierung der Unterschrift einer Person auf der Grundlage einer einzigen gespeicherten Referenzunterschrift. Die Forschung erforscht Deep Learning für diese Aufgabe, oft mit geringem Datenaufkommen.
  4. Entdeckung von Arzneimitteln: Identifizierung potenzieller neuer Arzneimittelkandidaten oder Vorhersage von Moleküleigenschaften auf der Grundlage sehr begrenzter experimenteller Ergebnisse, Beschleunigung des Forschungsprozesses. Studien zeigen die Anwendung von OSL bei der Vorhersage von Wechselwirkungen zwischen Medikamenten und Zielobjekten.

Herausforderungen und zukünftige Wege

Die größte Herausforderung bei OSL ist die Generalisierung: Wie kann ein Modell zuverlässig das Wesen einer Klasse aus nur einem Beispiel lernen, ohne sich zu sehr anzupassen? Die Wahl und die Qualität des einzelnen Beispiels sind dabei von entscheidender Bedeutung. Die laufende Forschung konzentriert sich auf die Entwicklung robusterer Merkmalsrepräsentationen, besserer Ähnlichkeitsmetriken und die Nutzung von Techniken wie dem Meta-Lernen ("Lernen, um zu lernen") zur Verbesserung der OSL-Leistung. Die Integration von OSL-Fähigkeiten in allgemeine Bildverarbeitungsmodelle und -plattformen wie Ultralytics HUB könnte deren Anwendbarkeit in datenbeschränkten Umgebungen erheblich erweitern. Die Bewertung von OSL-Modellen erfordert eine sorgfältige Prüfung der Leistungsmetriken unter diesen schwierigen Bedingungen.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert