Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

LoRA (Adaptation à faible rang)

Découvrez comment LoRA affine efficacement les grands modèles d'IA comme YOLO, réduisant ainsi les coûts et permettant le déploiement en périphérie avec un minimum de ressources.

LoRA, ou Low-Rank Adaptation, est une technique très efficace utilisée pour adapter de grands modèles d'apprentissage automatique (AA) pré-entraînés à des tâches spécifiques sans avoir besoin de réentraîner l'ensemble du modèle. Initialement détaillée dans un article de chercheurs de Microsoft, LoRA est devenue une pierre angulaire du Fine-Tuning Paramétrique Efficace (PEFT). Elle réduit considérablement les coûts de calcul et les besoins de stockage associés à la personnalisation de modèles massifs, tels que les Grands Modèles de Langue (LLM) et autres modèles de fondation.

Comment fonctionne LoRA

Au lieu de mettre à jour les milliards de poids du modèle dans un modèle pré-entraîné, LoRA les gèle tous. Il injecte ensuite une paire de petites matrices entraînables, appelées adaptateurs de faible rang, dans des couches spécifiques du modèle, souvent au sein du mécanisme d'attention d'une architecture Transformer. Pendant le processus d'entraînement, seuls les paramètres de ces nouvelles matrices, beaucoup plus petites, sont mis à jour. L'idée principale est que les modifications nécessaires pour adapter le modèle à une nouvelle tâche peuvent être représentées avec beaucoup moins de paramètres que le modèle original n'en contient. Cela exploite des principes similaires à la réduction de dimensionnalité pour capturer les informations essentielles pour l'adaptation sous une forme compacte. Une fois l'entraînement terminé, le petit adaptateur peut être fusionné avec les poids d'origine ou conservé séparément pour une commutation de tâches modulaire.

Applications concrètes

L'efficacité de LoRA la rend idéale pour un large éventail d'applications, en particulier lorsque plusieurs modèles personnalisés sont nécessaires.

  • Personnalisation des chatbots : Une entreprise peut prendre un LLM puissant et à usage général et utiliser LoRA pour l'entraîner sur sa base de connaissances interne. Cela crée un chatbot de service client spécialisé qui comprend la terminologie spécifique à l'entreprise sans le coût immense d'un fine-tuning complet.
  • Art IA et transfert de style : Les artistes et les designers utilisent LoRA pour adapter les modèles d'IA générative comme Stable Diffusion à un style artistique spécifique. En entraînant un adaptateur sur un petit ensemble de leurs propres images, ils peuvent générer de nouvelles œuvres qui imitent leur esthétique unique, une pratique populaire sur des plateformes comme Hugging Face.

LoRA vs. Concepts associés

Il est utile de distinguer LoRA des autres techniques d'adaptation de modèles :

  • Fine-tuning complet : Cette méthode met à jour tous les poids d'un modèle pré-entraîné sur un nouvel ensemble de données. Bien que souvent efficace, elle nécessite des ressources de calcul importantes (GPU) et du stockage pour chaque modèle adapté. LoRA, en revanche, gèle les poids d'origine et n'entraîne que les petites matrices d'adaptation injectées. Vous trouverez plus de détails dans notre entrée de glossaire sur le fine-tuning et dans l'aperçu du fine-tuning de NVIDIA.
  • Réglage des requêtes : Cette technique maintient les poids du modèle complètement gelés et apprend plutôt des "requêtes douces" continues (vecteurs ajoutés aux embeddings d'entrée) pour orienter le comportement du modèle pour des tâches spécifiques. Contrairement à LoRA, elle ne modifie aucun poids du modèle, mais se concentre uniquement sur l'adaptation de la représentation d'entrée. Pour en savoir plus, consultez les sections sur le réglage des requêtes et l'ingénierie des requêtes.
  • Autres méthodes PEFT : LoRA n'est qu'une technique dans le domaine plus large du Fine-Tuning Paramétrique Efficace (PEFT). D'autres méthodes incluent Adapter Tuning (similaire mais avec des structures d'adaptateur légèrement différentes), Prefix Tuning et IA³, chacune offrant différents compromis en termes d'efficacité des paramètres et de performances. Ces méthodes sont couramment disponibles dans des frameworks comme la bibliothèque Hugging Face PEFT.

En résumé, LoRA offre un moyen puissant et économe en ressources de personnaliser de grands modèles de fondation pré-entraînés pour un large éventail de tâches spécifiques dans le traitement du langage naturel (NLP) et la vision par ordinateur, rendant l'IA avancée plus pratique et accessible. Cette approche permet de gérer et de déployer facilement de nombreux modèles spécialisés, un processus simplifié par des plateformes comme Ultralytics HUB pour la gestion des cycles de vie des modèles.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers