Découvrez le réglage fin efficace en termes de paramètres (PEFT) pour adapter les grands modèles d'IA avec un minimum de ressources. Réduisez les coûts, prévenez le surapprentissage et optimisez le déploiement!
Le réglage fin efficace des paramètres (PEFT) est une stratégie sophistiquée d'apprentissage l 'apprentissage machine (ML) conçue pour adapter de grands modèles pré modèles pré-entraînés à des tâches spécifiques en aval sans la charge de calcul que représente le réentraînement de l'ensemble du réseau. En tant que modèles de base dans des domaines tels que le traitement du le traitement du langage naturel et la vision artificielle (CV) ont à des milliards de paramètres, l'ajustement traditionnel , quimet à jour chaque poids dans le modèle, est devenu est devenu prohibitif pour de nombreux utilisateurs. PEFT résout ce problème en figeant la majorité des poids du modèle pré-entraîné et en ne mettant à jour qu'une petite partie des poids du modèle. et en ne mettant à jour qu'un petit sous-ensemble de paramètres paramètres, ou en ajoutant quelques nouvelles couches entraînables. Cette approche réduit considérablement l'obstacle matériel, ce qui permet aux chercheurs et aux ingénieurs de personnaliser des modèles de pointe. aux chercheurs et aux ingénieurs de personnaliser des modèles de pointe à l'aide de GPU GPU grand public tout en maintenant des performances comparables à celles d'un apprentissage complet.
Le concept de base de PEFT est l'apprentissage par transfert, où un modèle exploite connaissances acquises à partir d'un ensemble massif de données (comme ImageNet ou Common Crawl) pour résoudre de nouveaux problèmes avec des données limitées. Contrairement au réglage fin complet, PEFT modifie l'architecture du modèle ou le processus d'apprentissage pour être "efficace en termes de paramètres". efficace en termes de paramètres". Cela crée une empreinte réduite pour le modèle adapté, souvent quelques mégaoctets seulement, par rapport aux gigaoctets nécessaires pour un modèle complet. gigaoctets nécessaires pour une copie complète du modèle. Cette efficacité est cruciale pour éviter l'oubli catastrophique, phénomène par lequel un perd ses capacités générales d'origine lors de l'apprentissage de nouvelles informations.
Les techniques les plus courantes dans le cadre du PEFT sont les suivantes :
PEFT contribue à démocratiser l'accès à de puissants outils d'intelligence artificielle dans divers secteurs d'activité.
Dans le contexte des modèles Ultralytics , l'efficacité des paramètres est souvent obtenue en "gelant" les couches dorsales du réseau pendant la formation. du réseau pendant la formation. Cela garantit que les couches d'extraction des caractéristiques restent inchangées et que seule la tête (la partie du modèle responsable des prédictions finales) est mise à jour. (la partie du modèle responsable des prédictions finales) est mise à jour.
L'exemple suivant montre comment mettre en œuvre une forme simple de formation efficace en termes de paramètres avec Ultralytics YOLO en gelant les 10 premières couches du modèle.
from ultralytics import YOLO
# Load the YOLO11 model (latest stable version)
model = YOLO("yolo11n.pt")
# Train the model on a specific dataset
# The 'freeze=10' argument freezes the first 10 layers (the backbone)
# This reduces the number of trainable parameters significantly
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
Il est essentiel de comprendre la distinction entre le PEFT et les termes similaires pour choisir la bonne stratégie :
En minimisant le coût informatique de l'adaptation, PEFT permet de créer des modèles hautement spécialisés pour des tâches allant de la perception des véhicules autonomes à la gestion de l'environnement. tâches allant de la perception de véhicules autonomes à l'analyse de l'imagerie l 'imagerie satellite, rendant l'IA avancée accessible à une plus large communauté de développeurs.