Découvrez comment LoRA affine efficacement les grands modèles d'IA comme YOLO, réduisant ainsi les coûts et permettant le déploiement en périphérie avec un minimum de ressources.
LoRA, ou Low-Rank Adaptation, est une technique très efficace utilisée pour adapter de grands modèles d'apprentissage automatique (AA) pré-entraînés à des tâches spécifiques sans avoir besoin de réentraîner l'ensemble du modèle. Initialement détaillée dans un article de chercheurs de Microsoft, LoRA est devenue une pierre angulaire du Fine-Tuning Paramétrique Efficace (PEFT). Elle réduit considérablement les coûts de calcul et les besoins de stockage associés à la personnalisation de modèles massifs, tels que les Grands Modèles de Langue (LLM) et autres modèles de fondation.
Au lieu de mettre à jour les milliards de poids du modèle dans un modèle pré-entraîné, LoRA les gèle tous. Il injecte ensuite une paire de petites matrices entraînables, appelées adaptateurs de faible rang, dans des couches spécifiques du modèle, souvent au sein du mécanisme d'attention d'une architecture Transformer. Pendant le processus d'entraînement, seuls les paramètres de ces nouvelles matrices, beaucoup plus petites, sont mis à jour. L'idée principale est que les modifications nécessaires pour adapter le modèle à une nouvelle tâche peuvent être représentées avec beaucoup moins de paramètres que le modèle original n'en contient. Cela exploite des principes similaires à la réduction de dimensionnalité pour capturer les informations essentielles pour l'adaptation sous une forme compacte. Une fois l'entraînement terminé, le petit adaptateur peut être fusionné avec les poids d'origine ou conservé séparément pour une commutation de tâches modulaire.
L'efficacité de LoRA la rend idéale pour un large éventail d'applications, en particulier lorsque plusieurs modèles personnalisés sont nécessaires.
Il est utile de distinguer LoRA des autres techniques d'adaptation de modèles :
En résumé, LoRA offre un moyen puissant et économe en ressources de personnaliser de grands modèles de fondation pré-entraînés pour un large éventail de tâches spécifiques dans le traitement du langage naturel (NLP) et la vision par ordinateur, rendant l'IA avancée plus pratique et accessible. Cette approche permet de gérer et de déployer facilement de nombreux modèles spécialisés, un processus simplifié par des plateformes comme Ultralytics HUB pour la gestion des cycles de vie des modèles.