Découvrez le réglage fin efficace en termes de paramètres (PEFT) pour optimiser les modèles volumineux tels que Ultralytics . Apprenez à réduire les coûts de calcul et à obtenir des résultats SOTA sur les GPU.
Le réglage fin efficace des paramètres (PEFT) est une stratégie d'optimisation sophistiquée dans le domaine de l' apprentissage automatique (ML) qui permet de personnaliser de grands modèles pré-entraînés pour des tâches spécifiques tout en minimisant les coûts de calcul. Les modèles de base modernes comprenant désormais des milliards de paramètres, les méthodes d'entraînement traditionnelles qui mettent à jour chaque poids du réseau sont devenues prohibitives en termes de matériel et d'énergie. Le PEFT relève ce défi en gelant la grande majorité des poids du modèle pré-entraîné et en ne mettant à jour qu'un petit sous-ensemble de paramètres ou en ajoutant des couches d'adaptateurs légers. Cette approche réduit les barrières à l'entrée, permettant aux développeurs d'obtenir des résultats de pointe sur des GPU grand public sans avoir besoin de centres de données à l'échelle industrielle.
Le principe fondamental du PEFT repose sur le transfert d'apprentissage, où un modèle exploite les représentations de caractéristiques apprises à partir d'énormes ensembles de données publiques tels que ImageNet pour résoudre de nouveaux problèmes. Dans un flux de travail standard, l'adaptation d'un modèle peut impliquer un « réglage fin complet », où la rétropropagation ajuste chaque paramètre du réseau neuronal.
Les techniques PEFT, telles que LoRA (Low-Rank Adaptation), empruntent une voie différente. Elles conservent la « colonne vertébrale » lourde du modèle statique, préservant ainsi ses connaissances générales, et injectent de petites matrices entraînables dans des couches spécifiques. Cela permet d'éviter l' oubli catastrophique, un phénomène par lequel un modèle perd ses capacités d'origine lorsqu'il apprend de nouvelles informations. En réduisant le nombre de paramètres entraînables jusqu'à 99 %, le PEFT diminue considérablement les besoins en stockage et permet à plusieurs adaptateurs spécifiques à une tâche d'être échangés dans un modèle de base unique pendant l' inférence en temps réel.
Le PEFT est particulièrement utile dans les secteurs où l'informatique en périphérie et la confidentialité des données sont primordiales.
Dans Ultralytics , l'efficacité des paramètres est souvent obtenue en « gelant » les couches initiales d'un réseau. Cela garantit que les extracteurs de caractéristiques robustes restent inchangés, tandis que seules les couches supérieures ou ultérieures s'adaptent aux nouvelles classes. Il s'agit d'une mise en œuvre pratique des principes PEFT pour la détection d'objets.
L'exemple suivant montre comment entraîner un modèle YOLO26 tout en gelant les 10 premières couches de la structure de base afin d'économiser des ressources de calcul :
from ultralytics import YOLO
# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")
# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
Pour les équipes qui souhaitent étendre ce processus, Ultralytics offre une interface unifiée permettant de gérer les ensembles de données, d' automatiser l'annotation et de surveiller ces entraînements efficaces depuis le cloud.
Pour choisir la bonne stratégie d'adaptation du modèle, il est utile de différencier le PEFT des termes similaires :
En démocratisant l'accès à l'IA haute performance, PEFT permet aux développeurs de créer des outils spécialisés pour les véhicules autonomes et la fabrication intelligente sans avoir besoin d'une infrastructure de supercalculateur.