Nutze die Möglichkeiten des Transfer-Lernens, um Zeit zu sparen, die KI-Leistung zu steigern und neue Aufgaben mit begrenzten Daten mithilfe von vortrainierten Modellen anzugehen.
Transferlernen ist eine Technik des maschinellen Lernens (ML), bei der ein für eine bestimmte Aufgabe entwickeltes Modell als Ausgangspunkt für ein Modell für eine zweite, verwandte Aufgabe wiederverwendet wird. Anstatt ein Modell von Grund auf neu zu erstellen, was erhebliche Daten- und Rechenressourcen erfordert, nutzt das Transferlernen das Wissen (Merkmale, Muster und Gewichte), das aus einer Ausgangsaufgabe gelernt wurde, um das Lernen für eine Zielaufgabe zu verbessern. Dieser Ansatz ist besonders vorteilhaft, wenn die Zielaufgabe nur über begrenzte beschriftete Daten verfügt. Er beschleunigt den Trainingsprozess erheblich und führt oft zu einer besseren Leistung als das Training nur mit dem Zieldatensatz.
Der Kerngedanke hinter dem Transfer-Lernen ist, dass ein Modell, das auf einem großen und allgemeinen Datensatz trainiert wurde, wie z. B. ImageNet für Bildaufgaben oder ein riesiger Textkorpus für die natürliche Sprachverarbeitung (NLP), allgemeine Merkmale lernt, die für viele andere verwandte Aufgaben nützlich sind. In der Computer Vision (CV) beispielsweise können die ersten Schichten eines Convolutional Neural Network (CNN) lernen, Kanten, Texturen und einfache Formen zu erkennen, also grundlegende visuelle Elemente, die für verschiedene Bilderkennungsaufgaben geeignet sind.
Wenn du Transfer Learning anwendest, beginnst du in der Regel mit einem vortrainierten Modell. Je nach Ähnlichkeit der Ausgangs- und der Zielaufgabe und der Größe des Zieldatensatzes kannst du das Modell trainieren:
Transferlernen wird in vielen verschiedenen Bereichen eingesetzt:
Plattformen wie Ultralytics HUB vereinfachen den Prozess der Anwendung von Transfer Learning durch die Bereitstellung von vortrainierten Modellen (wie Ultralytics YOLOv8 und YOLO11) und Tools für einfaches benutzerdefiniertes Training auf benutzerspezifischen Datensätzen. Frameworks wie PyTorch und TensorFlow bieten ebenfalls umfangreiche Unterstützung und Tutorials für die Implementierung von Transfer Learning Workflows. Für ein tieferes theoretisches Verständnis bieten Ressourcen wie der Stanford CS231n Überblick über Transfer Learning oder akademische Umfragen wie"A Survey on Deep Transfer Learning" wertvolle Einblicke.