Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

LoRA (Low-Rank Adaptation)

Entdecken Sie, wie LoRA große KI-Modelle wie YOLO effizient feinabstimmt, Kosten senkt und Edge-Bereitstellung mit minimalen Ressourcen ermöglicht.

LoRA, oder Low-Rank Adaptation, ist eine hocheffiziente Technik, die verwendet wird, um große, vortrainierte Modelle für maschinelles Lernen (ML) für bestimmte Aufgaben anzupassen, ohne das gesamte Modell neu trainieren zu müssen. LoRA wurde ursprünglich in einem Paper von Microsoft-Forschern detailliert beschrieben und ist zu einem Eckpfeiler des Parameter-Efficient Fine-Tuning (PEFT) geworden. Es reduziert die Rechenkosten und den Speicherbedarf, die mit der Anpassung massiver Modelle wie Large Language Models (LLMs) und anderer Basismodelle verbunden sind, drastisch.

Wie LoRA funktioniert

Anstatt die Milliarden von Modellgewichten in einem vortrainierten Modell zu aktualisieren, friert LoRA alle ein. Anschließend werden ein Paar kleiner, trainierbarer Matrizen—sogenannte Low-Rank-Adapter—in bestimmte Schichten des Modells eingefügt, oft innerhalb des Aufmerksamkeitsmechanismus einer Transformer-Architektur. Während des Trainingsprozesses werden nur die Parameter dieser neuen, viel kleineren Matrizen aktualisiert. Die Grundidee ist, dass die Änderungen, die erforderlich sind, um das Modell an eine neue Aufgabe anzupassen, mit weit weniger Parametern dargestellt werden können als das ursprüngliche Modell enthält. Dies nutzt Prinzipien ähnlich der Dimensionsreduktion, um die wesentlichen Informationen für die Anpassung in einer kompakten Form zu erfassen. Sobald das Training abgeschlossen ist, kann der kleine Adapter mit den ursprünglichen Gewichten zusammengeführt oder für ein modulares Aufgabenwechseln separat aufbewahrt werden.

Anwendungsfälle in der Praxis

Die Effizienz von LoRA macht es ideal für eine Vielzahl von Anwendungen, insbesondere dort, wo mehrere kundenspezifische Modelle benötigt werden.

  • Chatbots anpassen: Ein Unternehmen kann ein leistungsstarkes, universelles LLM verwenden und es mit LoRA auf seiner internen Wissensdatenbank trainieren. Dadurch entsteht ein spezialisierter Kundenservice-Chatbot, der unternehmensspezifische Terminologie versteht, ohne die immensen Kosten eines vollständigen Fine-Tunings.
  • KI-Kunst und Stilübertragung: Künstler und Designer verwenden LoRA, um generative KI-Modelle wie Stable Diffusion an einen bestimmten künstlerischen Stil anzupassen. Indem sie einen Adapter auf einer kleinen Menge ihrer eigenen Bilder trainieren, können sie neue Kunst erzeugen, die ihre einzigartige Ästhetik nachahmt, eine beliebte Praxis auf Plattformen wie Hugging Face.

LoRA vs. verwandte Konzepte

Es ist hilfreich, LoRA von anderen Techniken zur Modellanpassung abzugrenzen:

  • Vollständiges Fine-Tuning: Diese Methode aktualisiert alle Gewichte eines vortrainierten Modells auf einem neuen Datensatz. Obwohl dies oft effektiv ist, erfordert es erhebliche Rechenressourcen (GPU) und Speicherplatz für jedes angepasste Modell. LoRA hingegen friert die ursprünglichen Gewichte ein und trainiert nur die kleinen, eingefügten Adaptermatrizen. Weitere Details finden Sie in unserem Glossareintrag zum Fine-Tuning und in NVIDIAs Übersicht zum Fine-Tuning.
  • Prompt Tuning: Diese Technik hält die Modellgewichte vollständig eingefroren und lernt stattdessen kontinuierliche "Soft Prompts" (Vektoren, die zu den Eingebettungen hinzugefügt werden), um das Verhalten des Modells für bestimmte Aufgaben zu steuern. Im Gegensatz zu LoRA werden keine Modellgewichte verändert, sondern der Fokus liegt ausschließlich auf der Anpassung der Eingabedarstellung. Lesen Sie mehr über Prompt Tuning und Prompt Engineering.
  • Andere PEFT-Methoden: LoRA ist nur eine Technik innerhalb des breiteren Felds des Parameter-Efficient Fine-Tuning (PEFT). Andere Methoden umfassen Adapter Tuning (ähnlich, aber mit leicht unterschiedlichen Adapterstrukturen), Prefix Tuning und IA³, die jeweils unterschiedliche Kompromisse in Bezug auf Parametereffizienz und Leistung bieten. Diese Methoden sind üblicherweise in Frameworks wie der Hugging Face PEFT-Bibliothek verfügbar.

Zusammenfassend lässt sich sagen, dass LoRA eine leistungsstarke und ressourceneffiziente Möglichkeit bietet, große, vortrainierte Foundation Models für eine Vielzahl spezifischer Aufgaben sowohl in der natürlichen Sprachverarbeitung (NLP) als auch in der Computer Vision anzupassen, wodurch fortschrittliche KI praktischer und zugänglicher wird. Dieser Ansatz ermöglicht die einfache Verwaltung und Bereitstellung vieler spezialisierter Modelle, ein Prozess, der durch Plattformen wie Ultralytics HUB zur Verwaltung von Modelllebenszyklen optimiert wird.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert