Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Parameter-Effizientes Fine-Tuning (PEFT)

Entdecken Sie Parameter-Efficient Fine-Tuning (PEFT) zur Anpassung großer KI-Modelle mit minimalen Ressourcen. Sparen Sie Kosten, verhindern Sie Overfitting und optimieren Sie die Bereitstellung!

Parameter-Efficient Fine-Tuning (PEFT) ist eine ausgeklügelte Strategie im maschinellen Lernens (ML), die darauf abzielt, große, vortrainierte Modelle an spezifische nachgelagerte Aufgaben anzupassen, ohne dass das gesamte Netzwerk neu trainiert werden muss. Als Grundmodelle in Bereichen wie der Verarbeitung natürlicher Verarbeitung natürlicher Sprache und Computer Vision (CV) auf Milliarden von Parametern skaliert haben, ist die traditionelle Feinabstimmung - bei derjede Gewichtung im Modell aktualisiert wird - ist ist für viele Benutzer unerschwinglich geworden. PEFT geht dieses Problem an, indem es den Großteil der vortrainierten Modellgewichte einfriert Modellgewichte einfriert und nur eine kleine Teilmenge von Parameter aktualisiert oder ein paar neue trainierbare Schichten hinzufügt. Dieser Ansatz senkt die Hardware-Hürde erheblich und ermöglicht Forschern und Ingenieuren die Möglichkeit, Modelle auf dem neuesten Stand der Technik mit Consumer-Grade GPUs anpassen und dabei die Leistung vergleichbar mit einem vollständigen Training.

Die Mechanik von PEFT

Das Kernkonzept hinter PEFT ist Transfer-Lernen, bei dem ein Modell das Wissen aus einem großen Datensatz (wie ImageNet oder Common Crawl) nutzt, um neue Probleme mit begrenzten Daten zu lösen. Im Gegensatz zur vollständigen Feinabstimmung ändert PEFT die Modellarchitektur oder den Trainingsprozess, um "parameter effizient" zu sein. Dadurch benötigt das angepasste Modell nur wenige Megabyte im Vergleich zu den Gigabytes, die für eine vollständige Modellkopie erforderlich sind. Diese Effizienz ist entscheidend für die Vermeidung katastrophales Vergessen zu verhindern, ein Phänomen, bei dem ein Modell seine ursprünglichen allgemeinen Fähigkeiten verliert, während es neue Informationen lernt.

Zu den gängigen Techniken im Rahmen von PEFT gehören:

  • LoRA (Low-Rank Adaptation): Diese beliebte Methode injiziert kleine, trainierbare Rangzerlegungsmatrizen in die Schichten des Modells und friert die ursprünglichen Gewichte. Sie wird in Forschungsarbeiten von Microsoft häufig zitiert für für ihre Ausgewogenheit von Geschwindigkeit und Genauigkeit.
  • Adaptern: Hierbei werden kleine neuronale Module des neuronalen Netzes zwischen die bestehenden Schichten des vortrainierten Netzes eingefügt.
  • Promptes Tuning: Hauptsächlich verwendet mit Sprachmodellen verwendet, fügt dies trainierbare "weiche Einbettungen in die Eingabesequenz, die das Verhalten des eingefrorenen das Verhalten des Modells.

Anwendungsfälle in der Praxis

PEFT trägt dazu bei, den Zugang zu leistungsstarken KI-Tools in verschiedenen Branchen zu demokratisieren.

  • Präzisionslandwirtschaft: Landwirte und Agrartechnikunternehmen nutzen PEFT zur Anpassung allgemeiner Objekterkennungsmodelle wie YOLO11 um spezifische Pflanzenkrankheiten oder lokale Schädlinge zu erkennen. Durch den Einsatz von KI in der Landwirtschaft kann ein Modell, das auf ein Modell, das auf allgemeine Objekte trainiert wurde, auf einen kleinen Datensatz von Blattbildern feinabgestimmt werden, um mit hoher Genauigkeit lokalisierten Befall detect , der effizient auf Endgeräten auf dem Feld abläuft.
  • Medizinische Diagnostik: Unter KI im Gesundheitswesen sind Datenschutz und Datenknappheit große Herausforderungen. Krankenhäuser können PEFT nutzen, um Bildgebungsmodelle für für die medizinische Bildanalyse, z. B. die Erkennung Frakturen in Röntgenbildern. Da das Basismodell eingefroren bleibt, erfordert das Training weniger Patientenbilder, um zu konvergieren, Dadurch wird das Risiko einer Überanpassung verringert und die die Fähigkeit des Modells, allgemeine visuelle Merkmale zu erkennen.

Praktische Umsetzung

Bei Ultralytics wird die Parametereffizienz häufig dadurch erreicht, dass die Backbone-Schichten des Netzes während des Trainings "eingefroren" werden. Schichten des Netzes während des Trainings. Dadurch wird sichergestellt, dass die Ebenen der Merkmalsextraktion unverändert bleiben und nur der Head (der Teil des Modells, der für die endgültigen Vorhersagen zuständig ist) aktualisiert wird.

Das folgende Beispiel zeigt, wie man eine einfache Form des parametereffizienten Trainings mit Ultralytics YOLO implementiert, indem die ersten 10 Schichten des Modells eingefroren werden.

from ultralytics import YOLO

# Load the YOLO11 model (latest stable version)
model = YOLO("yolo11n.pt")

# Train the model on a specific dataset
# The 'freeze=10' argument freezes the first 10 layers (the backbone)
# This reduces the number of trainable parameters significantly
results = model.train(data="coco8.yaml", epochs=5, freeze=10)

PEFT im Vergleich zu verwandten Konzepten

Das Verständnis des Unterschieds zwischen PEFT und ähnlichen Begriffen ist für die Wahl der richtigen Strategie entscheidend:

  • Vollständige Feinabstimmung: Damit werden alle Parameter im Netz aktualisiert. Es bietet maximale Plastizität, erfordert aber massive Rechen- und Speicherressourcen für jede neue Modellversion. Siehe diesen Leitfaden zur Feinabstimmung für beste Praktiken, wenn Ressourcen keine Einschränkung darstellen.
  • Prompt Engineering: Diese besteht darin, die Texteingabe (Prompt) so zu gestalten, dass das Modell ohne Änderung der Gewichtung gesteuert wird. PEFT, im Gegensatz dazu, aktualisiert permanent eine kleine Gruppe von Parametern oder Gewichten, um zu ändern, wie das Modell Daten verarbeitet.
  • Transfer-Lernen: Dies ist das umfassendere Konzept der Wiederverwendung von Wissen. PEFT ist eine spezifische, effiziente Umsetzung des Transferlernens. Tiefergehende Definitionen dieser Konzepte finden Sie auf Plattformen wie IBMs AI-Bildungsseiten.

Durch die Minimierung des Rechenaufwands für die Anpassung ermöglicht PEFT die Erstellung hochspezialisierter Modelle für Aufgaben, die von der Wahrnehmung autonomer Fahrzeuge zur Analyse von Satellitenbildern, Dadurch wird fortschrittliche KI einer breiteren Entwicklergemeinschaft zugänglich.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten