Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024
Glossaire

Réglage fin efficace en termes de paramètres (PEFT)

Découvrez le réglage fin efficace en termes de paramètres (PEFT) pour adapter les grands modèles d'IA avec un minimum de ressources. Réduisez les coûts, prévenez le surapprentissage et optimisez le déploiement!

Le Fine-Tuning Paramétrique Efficace (PEFT) est un ensemble de techniques utilisées dans l'apprentissage automatique pour adapter de grands modèles pré-entraînés à de nouvelles tâches spécifiques sans avoir besoin de ré-entraîner l'ensemble du modèle. Alors que les modèles de fondation dans des domaines tels que le Traitement du Langage Naturel (NLP) et la Vision par Ordinateur (CV) atteignent des milliards de paramètres, le fine-tuning complet devient coûteux en termes de calcul et nécessite un stockage de données important pour chaque nouvelle tâche. PEFT résout ce problème en gelant la grande majorité des poids du modèle pré-entraîené et en n'entraînant qu'un petit nombre de paramètres supplémentaires ou existants. Cette approche réduit considérablement les coûts de calcul et de stockage, diminue le risque d'oubli catastrophique (où un modèle oublie ses capacités d'origine) et permet de personnaliser un seul grand modèle pour de nombreuses applications différentes.

Comment fonctionne PEFT ?

Le principe central de PEFT est d'apporter des modifications ciblées et minimales à un modèle pré-entraîné. Au lieu de mettre à jour chaque paramètre, les méthodes PEFT introduisent un petit ensemble de paramètres entraînables ou sélectionnent un minuscule sous-ensemble de paramètres existants à mettre à jour pendant l'entraînement. Il s'agit d'une forme d'apprentissage par transfert qui optimise l'efficacité. Il existe plusieurs méthodes PEFT populaires, chacune ayant une stratégie différente :

  • LoRA (Low-Rank Adaptation): Cette technique injecte de petites matrices de faible rang entraînables dans les couches du modèle pré-entraîné, souvent au sein du mécanisme d'attention. Ces matrices "d'adaptation" sont significativement plus petites que les matrices de poids originales, ce qui rend l'entraînement rapide et efficace. Le document de recherche original sur LoRA fournit plus de détails techniques.
  • Réglage d'invite (Prompt Tuning) : Au lieu de modifier l'architecture du modèle, cette méthode maintient le modèle entièrement figé et apprend un ensemble d'« invites logicielles » ou de vecteurs d'intégration entraînables. Ces vecteurs sont ajoutés à la séquence d'entrée pour guider la sortie du modèle pour une tâche spécifique, comme indiqué dans son document fondateur.
  • Réglage d'adaptateur : Cette méthode consiste à insérer de petits modules de réseau neuronal entièrement connectés, appelés "adaptateurs", entre les couches du modèle pré-entraîné. Seuls les paramètres de ces nouveaux adaptateurs sont entraînés.

Ces méthodes et d'autres sont largement accessibles via des frameworks tels que la bibliothèque Hugging Face PEFT, qui simplifie leur implémentation.

PEFT vs. Concepts Connexes

Il est important de différencier PEFT des autres stratégies d'adaptation de modèles :

  • Fine-tuning complet : Contrairement au PEFT, le fine-tuning complet met à jour tous les poids d'un modèle pré-entraîné. Cela nécessite beaucoup de ressources, nécessitant un GPU puissant et un stockage important pour chaque version de modèle fine-tuné.
  • Ingénierie des invites (Prompt Engineering) : Cette technique consiste à concevoir manuellement des invites textuelles efficaces pour guider le comportement d'un modèle. Elle n'implique aucune formation ou mise à jour des paramètres ; il s'agit uniquement d'élaborer l'entrée pour obtenir la sortie souhaitée d'un modèle figé.
  • Distillation des connaissances: Ceci implique l'entraînement d'un plus petit modèle "étudiant" pour imiter le comportement d'un plus grand modèle "enseignant" pré-entraîné. Bien qu'elle crée un modèle plus petit, le processus lui-même peut encore être gourmand en calcul.

Applications concrètes

La PEFT permet l'application pratique de grands modèles dans divers domaines :

  • Traitement du langage naturel (NLP) : Une entreprise peut utiliser PEFT pour adapter un modèle à usage général comme GPT-4 ou BERT afin de créer un chatbot spécialisé pour sa base de connaissances interne. Au lieu d'une réentraînement complète coûteuse, elle peut utiliser une méthode comme LoRA pour enseigner au modèle la terminologie et les procédures spécifiques à l'entreprise, ce qui permet d'obtenir des réponses plus précises pour le service client ou le support interne. Des groupes de recherche comme le Stanford NLP Group explorent ces types d'applications.
  • Vision par ordinateur (VC) : PEFT peut personnaliser de grands modèles de vision tels que les Vision Transformers (ViT) ou les modèles Ultralytics YOLO pour des tâches spécifiques de reconnaissance visuelle. Par exemple, un modèle pré-entraîné sur le vaste ensemble de données COCO peut être adapté à l'aide de PEFT pour une détection d'objets précise de défauts uniques dans le contrôle de la qualité de la fabrication, effectuant une segmentation d'image spécialisée pour l'analyse d'images médicales, ou identifiant certaines espèces animales dans les pièges photographiques de la conservation de la faune. Des plateformes comme Ultralytics HUB peuvent aider à gérer ces modèles et expériences adaptés.

Essentiellement, le fine-tuning économe en paramètres rend les modèles d'IA de pointe plus polyvalents et rentables à adapter, démocratisant ainsi l'accès à de puissantes capacités d'IA pour un large éventail d'applications spécifiques.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers