Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

LoRA (Low-Rank Adaptation)

Entdecken Sie, wie LoRA große KI-Modelle wie YOLO effizient abstimmt, die Kosten senkt und eine Edge-Bereitstellung mit minimalen Ressourcen ermöglicht.

LoRA, oder Low-Rank Adaptation, ist eine revolutionäre Technik auf dem Gebiet des maschinellen Lernens (ML), das die Feinabstimmung großer, vorab trainierter Modelle mit außergewöhnlicher Effizienz. Da die Größe der modernen Modelle explodiert ist - sie enthalten oft Milliarden von Parametern enthalten, ist das Umlernen dieser Modelle für bestimmte Aufgaben für viele Forscher und Entwickler rechnerisch unerschwinglich geworden und Entwickler unerschwinglich geworden. LoRA löst dieses Problem durch Einfrieren der ursprünglichen Modellgewichte einfriert und kleinere, trainierbare Matrizen mit niedrigem Rang in die Architektur injiziert. Dieser Ansatz reduziert die Anzahl der trainierbaren Parameter drastisch, verringert den Speicherbedarf und ermöglicht eine effektive Modellanpassung auf Standardhardware wie einer GPU (Graphics Processing Unit).

Wie LoRA funktioniert

Die Kerninnovation von LoRA liegt in der Fähigkeit, die Notwendigkeit einer vollständigen Modellumschulung zu umgehen. Bei der traditionellen Feinabstimmung wird jedes Gewicht in einem neuronalen Netz Gewicht in einem neuronalen Netz während der Backpropagation aktualisiert, was die Speicherung umfangreicher Optimierungszustände erfordert. Bei LoRA hingegen bleibt das vortrainierte Modell fest. Es führt Paare von Rangzerlegungsmatrizen in bestimmte Schichten ein, typischerweise in den Aufmerksamkeitsmechanismus von Transformer-Architekturen.

Während des Trainingsprozesses werden nur diese kleinen Adaptermatrizen aktualisiert werden. Da diese Matrizen "niedrigrangig" sind - das heißt, sie haben deutlich weniger Dimensionen als die Modellschichten haben, ist der Berechnungsaufwand minimal. Dieses Konzept lehnt sich an die Prinzipien der Dimensionalitätsreduktion, Es geht davon aus, dass sich die Anpassung an eine neue Aufgabe auf einen niedrigdimensionalen Unterraum der Modellparameter stützt. Dies macht LoRA ein Eckpfeiler der Parametereffiziente Feinabstimmung (PEFT), die die Erstellung aufgabenspezifischer Modelle ermöglicht, die nur einen Bruchteil der Größe des ursprünglichen Kontrollpunkts ausmachen.

Das folgende Python zeigt, wie man einen Standard-Trainingslauf mit der ultralytics Paket. Während dieser Befehl standardmäßig ein vollständiges Training durchführt, können erweiterte Konfigurationen PEFT-Techniken wie LoRA nutzen, um den Prozess für bestimmte benutzerdefinierte Datensätze.

from ultralytics import YOLO

# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")

# Train the model on a specific dataset
# LoRA strategies can be applied to freeze the backbone and train adapters
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)

Anwendungsfälle in der Praxis

Die Effizienz von LoRA hat neue Möglichkeiten in verschiedenen Bereichen der Künstliche Intelligenz (KI).

  • Angepasste große Sprachmodelle (LLMs): Unternehmen verwenden LoRA, um allgemeine Large Language Models (LLMs) für Nischenbranchen Branchen anzupassen. Eine Anwaltskanzlei könnte zum Beispiel einen Chatbot auf proprietäre Falldateien trainieren. Die ursprüngliche Microsoft LoRA-Papier zeigte, dass diese Methode eine Leistung vergleichbar mit einer vollständigen Feinabstimmung ist, während der Speicherbedarf um das 10.000-fache reduziert wird.
  • Generative KI-Kunst: Auf dem Gebiet der generativen KI nutzen Künstler LoRA, um Bildgenerierungsmodellen Bildgenerierungsmodelle wie Stable Diffusion neue Stile, Zeichen oder Konzepte beizubringen. Durch das Training mit einer kleinen Menge von Bildern erstellen sie leichtgewichtige "LoRA Dateien" (oft nur ein paar Megabyte groß), die in das Basismodell eingefügt werden können, um dessen Ausgabestil dramatisch.
  • Effiziente Computer Vision: Für Aufgaben wie Objekterkennung, können Ingenieure leistungsstarke Bildverarbeitungsmodelle anpassen detect um seltene Objekte oder bestimmte Fehler in Qualitätskontrolle in der Fertigung. Dies ist entscheidend für den Einsatz in Randbereichen, in denen Geräte nur über begrenzten Speicher verfügen. Zukünftige Architekturen, wie die kommende YOLO26, zielen darauf ab, eine solche Effizienz für Echtzeit-Anwendungen.

LoRA vs. verwandte Konzepte

Um LoRA vollständig zu verstehen, ist es hilfreich, sie von anderen Anpassungsstrategien zu unterscheiden:

  • Vollständige Feinabstimmung: Bei dieser traditionellen Methode werden alle Parameter eines Modells aktualisiert. Sie ermöglicht zwar eine maximale Plastizität, ist aber ressourcenintensiv und anfällig für "katastrophales Vergessen", bei dem das Modell zuvor gelerntes Wissen verliert. Wissen verliert. Sie können sich Tipps für die Modellschulung zur Bewältigung dieser Herausforderungen.
  • Schnelles Engineering: Im Gegensatz zu LoRA, das die Modellgewichte (über Adapter) modifiziert, konzentriert sich das Prompt Engineering auf die Erstellung effektiver Texteingaben Eingaben, um das Verhalten eines eingefrorenen Modells zu steuern. Es erfordert kein Training, kann aber im Vergleich zur Gewichtsanpassung bei der Bewältigung komplexer, domänenspezifische Aufgaben im Vergleich zur Gewichtsanpassung.
  • Lernen übertragen: Dies ist das umfassendere Konzept der Übernahme von Wissen aus einer Aufgabe und dessen Anwendung auf eine andere. LoRA ist eine spezifische, hocheffiziente Umsetzung des Transferlernens.
  • Prompt Tuning: Diese Technik lernt "Soft Prompts" (Vektoren), die der Eingabesequenz hinzugefügt werden. Obwohl auch Parameter effizient, arbeitet aber mit den Eingabeeinbettungen und nicht mit den internen Modellschichten, was manchmal die Aussagekraft die Aussagekraft im Vergleich zur tiefen Integration von LoRA einschränken kann.

Durch die Demokratisierung des Zugangs zur Modellanpassung befähigt LoRA Entwickler, spezialisierte Tools für die medizinische Bildanalyse, Wildtierschutz und autonome Fahrzeuge zu entwickeln, ohne die Infrastruktur eines Tech-Giganten. Da sich die Branche in Richtung vielseitiger Plattformen bewegt - wie die kommende Ultralytics Plattform - werden Techniken, die die Modellgröße von den Trainingskosten entkoppeln, für skalierbare KI-Innovationen unerlässlich bleiben.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten