Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

LoRA (Adaptation à faible rang)

Découvrez comment LoRA affine efficacement les grands modèles d'IA tels que YOLO , en réduisant les coûts et en permettant un déploiement en périphérie avec des ressources minimales.

LoRA, ou Low-Rank Adaptation, est une technique révolutionnaire dans le domaine de l'apprentissage automatique (ML). dans le domaine de l'apprentissage automatique (ML). modèles pré-entraînés de grande taille avec une efficacité exceptionnelle. La taille des modèles de base modernes modernes a explosé - contenant souvent des milliards de milliards de paramètres, leur réentraînement pour des tâches spécifiques est devenu prohibitif sur le plan informatique pour de nombreux chercheurs et développeurs. et développeurs. LoRA résout ce problème en gelant les poids du modèle et en injectant dans le modèle des matrices de faible rang de faible rang dans l'architecture. Cette approche réduit considérablement le nombre de paramètres entraînables, de mémoire et permet une adaptation efficace du modèle sur du matériel grand public tel qu'un GPU (Graphics Processing Unit) standard. GPU (unité de traitement graphique).

Comment fonctionne LoRA

L'innovation principale de LoRA réside dans sa capacité à contourner la nécessité d'un recyclage complet du modèle. Dans le cadre d'un traditionnel, chaque poids d'un réseau neuronal est mis à jour pendant la est mis à jour au cours de la rétropropagation, ce qui nécessite le stockage d'un grand nombre d'états de l'optimiseur. LoRA, en revanche, maintient le modèle pré-entraîné modèle pré-entraîné. Il introduit des paires de matrices de décomposition des rangs dans des couches spécifiques, généralement au sein du mécanisme d'attention. mécanisme d'attention des architectures architectures de transformateurs.

Au cours du processus de formation, seules ces petites matrices d'adaptation sont mises à jour. Comme ces matrices sont de "faible rang", c'est-à-dire qu'elles ont beaucoup moins de dimensions que les couches du modèle complet, la charge de calcul est minime. que les couches du modèle complet, la charge de calcul est minime. Ce concept s'inspire des principes de réduction de la dimensionnalité principes de réduction de la dimensionnalité, en supposant que l'adaptation à une nouvelle tâche repose sur un sous-espace de faible dimension des paramètres du modèle. C'est ce qui fait de LoRA une pierre angulaire du Parameter-Efficient Fine-Tuning (PEFT), permettant la création de modèles spécifiques à une tâche qui ne représentent qu'une fraction de la taille du point de contrôle original.

L'extrait Python suivant montre comment lancer un entraînement standard à l'aide de la commande ultralytics paquet. Bien que cette commande effectue une formation complète par défaut, les configurations avancées peuvent peuvent s'appuyer sur des techniques PEFT telles que LoRA afin d'optimiser le processus pour des ensembles de données personnalisés.

from ultralytics import YOLO

# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")

# Train the model on a specific dataset
# LoRA strategies can be applied to freeze the backbone and train adapters
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)

Applications concrètes

L'efficacité de la LoRA a ouvert de nouvelles possibilités dans divers domaines de l'intelligence artificielle (IA). l 'intelligence artificielle (IA).

  • Grands modèles linguistiques personnalisés (LLM): Les organisations utilisent LoRA pour adapter les grands modèles de langage (LLM) à usage général pour des niches industrielles. Par exemple, un cabinet d'avocats peut former un chatbot chatbot sur des dossiers exclusifs. L'article l 'article original de Microsoft LoRA a démontré que cette méthode maintient des performances comparables à un réglage fin complet tout en réduisant les besoins de stockage jusqu'à 10 000 fois.
  • L'art de l'IA générative: Dans le domaine de l'IA générative l'IA générative, les artistes utilisent LoRA pour enseigner aux modèles de génération d'images tels que la diffusion stable nouveaux styles, personnages ou concepts. En s'entraînant sur un petit ensemble d'images, ils créent des "fichiers LoRA (souvent quelques mégaoctets seulement) qui peuvent être insérés dans le modèle de base pour modifier radicalement son style de sortie. de façon spectaculaire.
  • Vision par ordinateur efficace: Pour des tâches telles que la détection d'objets, les ingénieurs peuvent adapter de puissants modèles de vision puissants pour detect objets rares ou des défauts spécifiques dans le cadre du contrôle de la qualité de la fabrication. le contrôle de la qualité de la fabrication. Ceci est crucial pour le déploiement en périphérie, où les appareils ont une mémoire limitée. Les architectures futures, telles que le futur YOLO26, visent à intégrer davantage cette efficacité pour les applications en temps réel. pour les applications en temps réel.

LoRA vs. Concepts associés

Pour bien comprendre la LoRA, il est utile de la distinguer des autres stratégies d'adaptation :

  • Mise au point complète: Cette méthode traditionnelle met à jour tous les paramètres d'un modèle. Bien qu'elle permette une plasticité maximale, elle est ressources et est sujette à un "oubli catastrophique", où le modèle perd les connaissances acquises précédemment. connaissances acquises précédemment. Vous pouvez explorer conseils en matière de formation de modèles pour relever ces défis. défis.
  • Prompt Engineering: Contrairement à LoRA, qui modifie les poids des modèles (par le biais d'adaptateurs), l'ingénierie des invites se concentre sur l'élaboration de textes efficaces pour guider le comportement d'un modèle gelé. pour guider le comportement d'un modèle gelé. Elle ne nécessite pas de formation mais peut être limitée dans la gestion de tâches complexes et spécifiques à un domaine par rapport à l'adaptation des poids, complexes et spécifiques à un domaine par rapport à l'adaptation des poids.
  • Apprentissage par transfert: Il s'agit d'un concept plus large qui consiste à appliquer les connaissances acquises dans le cadre d'une tâche à une autre tâche. LoRA est une mise en œuvre spécifique et très efficace de l'apprentissage par transfert, spécifique et très efficace de l'apprentissage par transfert.
  • Prompt Tuning: Cette technique permet d'apprendre les "invites douces" (vecteurs) ajoutées à la séquence d'entrée. Bien qu'elle soit également paramètres, elle opère sur les embeddings d'entrée plutôt que sur les couches internes du modèle, ce qui peut parfois limiter son expressivité par rapport à l'intégration profonde de LoRA. limiter son expressivité par rapport à l'intégration profonde de LoRA.

En démocratisant l'accès à la personnalisation des modèles, LoRA permet aux développeurs de créer des outils spécialisés pour l'analyse d'images médicales, la conservation de la faune et de la flore, et véhicules autonomes sans avoir besoin de l'infrastructure l'infrastructure d'un géant de la technologie. Alors que l'industrie s'oriente vers des plateformes polyvalentes - comme la future plateforme Ultralytics les techniques qui découplent la taille du modèle du coût de la formation resteront essentielles pour une innovation évolutive en matière d'IA.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant