Ajustez les modèles d'apprentissage automatique comme Ultralytics YOLO pour des tâches spécifiques. Découvrez les méthodes, les applications et les meilleures pratiques ici !
Le réglage fin est un processus essentiel dans l' apprentissage automatique (ML) qui consiste à prendre un modèle déjà entraîné sur un grand ensemble de données et à l'adapter pour qu'il effectue une tâche spécifique à l'aide d'un ensemble de données plus petit et spécialisé . Au lieu de former à partir de zéro, ce qui est coûteux en termes de calcul et nécessite d'énormes quantités de données, les développeurs exploitent les connaissances existantes d'un modèle « pré-entraîné ». Cette approche est une mise en œuvre pratique de l' apprentissage par transfert, permettant aux systèmes d'IA d'atteindre des performances de pointe sur des problèmes de niche, tels que l'identification d'espèces d'oiseaux rares ou la détection de défauts microscopiques dans la fabrication, avec des ressources considérablement réduites.
Le processus commence par un modèle de base qui a été entraîné sur un ensemble de données complet tel que ImageNet. Ce modèle de base possède une solide compréhension des caractéristiques fondamentales, telles que les contours, les textures et les formes dans les images. Pendant le réglage fin, les paramètres du modèle sont légèrement ajustés pour tenir compte des nuances des nouvelles données.
Cet ajustement est généralement obtenu par descente de gradient à l'aide d'un taux d'apprentissage inférieur . Un faible taux d'apprentissage garantit que les caractéristiques utiles apprises lors de la pré-formation initiale ne sont pas détruites, mais plutôt affinées. Dans de nombreux workflows de vision par ordinateur (CV), les ingénieurs gèlent les couches initiales de la colonne vertébrale, qui detect les caractéristiques detect , et ne mettent à jour que les couches plus profondes et la tête de détection chargée de faire les prédictions finales .
Le réglage fin permet de combler le fossé entre les capacités générales de l'IA et les exigences spécifiques à l'industrie.
Les frameworks modernes rendent ce processus accessible. En utilisant le ultralytics bibliothèque, les développeurs peuvent affiner
des modèles de pointe sur ensembles de données personnalisés avec un minimum de code. La
bibliothèque gère les complexités du chargement des modèles pré-entraînés
poids du modèle et gérer le cycle de formation.
L'exemple suivant montre comment affiner un modèle YOLO26 pré-entraîné.
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (recommended for new projects)
model = YOLO("yolo26n.pt")
# Fine-tune the model on a specific dataset configuration
# 'epochs' sets training duration; 'imgsz' defines input resolution
results = model.train(data="coco8.yaml", epochs=10, imgsz=640)
Il est important de différencier le réglage fin des stratégies d'adaptation similaires :
Pour mettre en œuvre efficacement le réglage fin, les scientifiques des données s'appuient sur des cadres d'apprentissage profond tels que PyTorch et TensorFlow. Ces plateformes fournissent l'infrastructure nécessaire pour calculer les gradients et mettre à jour les poids. Pour une expérience simplifiée, en particulier dans les environnements d'entreprise, la future Ultralytics offre un environnement complet pour la gestion des ensembles de données, l'annotation automatique et le réglage fin basé sur le cloud, simplifiant ainsi le cycle de vie, de la collecte des données au déploiement du modèle. Il est essentiel de s'assurer que vos données sont propres et bien annotées afin d' éviter le surajustement et de garantir que le modèle se généralise bien aux scénarios du monde réel.