Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Parameter-Effizientes Fine-Tuning (PEFT)

Entdecken Sie Parameter-Efficient Fine-Tuning (PEFT) zur Anpassung großer KI-Modelle mit minimalen Ressourcen. Sparen Sie Kosten, verhindern Sie Overfitting und optimieren Sie die Bereitstellung!

Parameter-Efficient Fine-Tuning (PEFT) ist eine Reihe von Techniken, die im maschinellen Lernen verwendet werden, um große, vortrainierte Modelle an neue, spezifische Aufgaben anzupassen, ohne dass das gesamte Modell neu trainiert werden muss. Da Foundation Models in Bereichen wie Natural Language Processing (NLP) und Computer Vision (CV) auf Milliarden von Parametern anwachsen, wird das vollständige Fine-Tuning rechenintensiv und erfordert eine erhebliche Datenspeicherung für jede neue Aufgabe. PEFT begegnet diesem Problem, indem es den Großteil der Gewichte des vortrainierten Modells einfriert und nur eine kleine Anzahl zusätzlicher oder bestehender Parameter trainiert. Dieser Ansatz reduziert die Rechen- und Speicherkosten drastisch, senkt das Risiko des katastrophalen Vergessens (bei dem ein Modell seine ursprünglichen Fähigkeiten vergisst) und macht es möglich, ein einzelnes großes Modell für viele verschiedene Anwendungen anzupassen.

Wie funktioniert PEFT?

Das Kernprinzip hinter PEFT ist es, gezielte, minimale Änderungen an einem vortrainierten Modell vorzunehmen. Anstatt jeden Parameter zu aktualisieren, führen PEFT-Methoden einen kleinen Satz trainierbarer Parameter ein oder wählen eine winzige Teilmenge bestehender Parameter aus, die während des Trainings aktualisiert werden sollen. Dies ist eine Form des Transfer Learning, das auf Effizienz optimiert. Es gibt verschiedene beliebte PEFT-Methoden, jede mit einer anderen Strategie:

  • LoRA (Low-Rank Adaptation): Diese Technik injiziert kleine, trainierbare Low-Rank-Matrizen in die Schichten des vortrainierten Modells, oft innerhalb des Aufmerksamkeitsmechanismus. Diese "Adapter"-Matrizen sind deutlich kleiner als die ursprünglichen Gewichtsmatrizen, was das Training schnell und effizient macht. Das ursprüngliche LoRA-Forschungsarbeit bietet weitere technische Details.
  • Prompt Tuning: Anstatt die Architektur des Modells zu verändern, behält diese Methode das Modell vollständig "eingefroren" bei und erlernt eine Reihe von "Soft Prompts" oder trainierbaren Embedding-Vektoren. Diese Vektoren werden der Eingabesequenz hinzugefügt, um die Ausgabe des Modells für eine bestimmte Aufgabe zu steuern, wie in dem grundlegenden Paper beschrieben.
  • Adapter-Tuning: Diese Methode beinhaltet das Einfügen kleiner, voll verbundener neuronaler Netzwerkmodule, bekannt als "Adapter", zwischen die Schichten des vortrainierten Modells. Nur die Parameter dieser neuen Adapter werden trainiert.

Diese und andere Methoden sind über Frameworks wie die Hugging Face PEFT Library breit zugänglich, was ihre Implementierung vereinfacht.

PEFT im Vergleich zu verwandten Konzepten

Es ist wichtig, PEFT von anderen Strategien zur Modellanpassung zu unterscheiden:

  • Vollständiges Fine-Tuning: Im Gegensatz zu PEFT aktualisiert das vollständige Fine-Tuning alle Gewichte eines vortrainierten Modells. Dies ist ressourcenintensiv und erfordert eine leistungsstarke GPU und großen Speicher für jede feinabgestimmte Modellversion.
  • Prompt Engineering: Diese Technik beinhaltet das manuelle Entwerfen effektiver textbasierter Prompts, um das Verhalten eines Modells zu steuern. Es beinhaltet kein Training oder Parameteraktualisierungen; es geht ausschließlich darum, die Eingabe so zu gestalten, dass die gewünschte Ausgabe von einem "eingefrorenen" Modell erzielt wird.
  • Knowledge Distillation: Dies beinhaltet das Trainieren eines kleineren „Studenten“-Modells, um das Verhalten eines größeren, vortrainierten „Lehrer“-Modells nachzubilden. Obwohl dadurch ein kleineres Modell entsteht, kann der Prozess selbst immer noch rechenintensiv sein.

Anwendungsfälle in der Praxis

PEFT ermöglicht die praktische Anwendung großer Modelle in verschiedenen Bereichen:

  • Natural Language Processing (NLP): Ein Unternehmen kann PEFT verwenden, um ein Allzweckmodell wie GPT-4 oder BERT anzupassen, um einen spezialisierten Chatbot für seine interne Wissensdatenbank zu erstellen. Anstelle eines kostspieligen vollständigen Retrainings können sie eine Methode wie LoRA verwenden, um dem Modell unternehmensspezifische Terminologie und Verfahren beizubringen, was zu genaueren Antworten für den Kundenservice oder den internen Support führt. Forschungsgruppen wie die Stanford NLP Group untersuchen diese Art von Anwendungen.
  • Computer Vision (CV): PEFT kann große Bildmodelle wie Vision Transformers (ViT) oder Ultralytics YOLO-Modelle für spezifische visuelle Erkennungsaufgaben anpassen. Beispielsweise kann ein Modell, das auf dem breiten COCO-Datensatz vortrainiert wurde, mithilfe von PEFT für die präzise Objekterkennung von einzigartigen Defekten in der Fertigungsqualitätskontrolle, die Durchführung einer spezialisierten Bildsegmentierung für die medizinische Bildanalyse oder die Identifizierung bestimmter Tierarten in Wildtierschutzkamerafallen angepasst werden. Plattformen wie Ultralytics HUB können bei der Verwaltung dieser angepassten Modelle und Experimente helfen.

Im Wesentlichen macht Parameter-Efficient Fine-Tuning hochmoderne KI-Modelle vielseitiger und kostengünstiger in der Anpassung, wodurch der Zugang zu leistungsstarken KI-Funktionen für eine breite Palette spezifischer Anwendungen demokratisiert wird.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert