Ajustez les modèles d'apprentissage automatique comme Ultralytics YOLO pour des tâches spécifiques. Découvrez les méthodes, les applications et les meilleures pratiques ici !
Le réglage fin est une technique stratégique technique stratégique d'apprentissage machine (ML) utilisée pour spécialiser un modèle pré-entraîné pour une tâche ou un ensemble de données spécifique. spécialiser un modèle pré-entraîné pour une tâche ou un ensemble de données spécifique. Plutôt que de de données spécifiques. Plutôt que de partir de zéro, ce qui nécessite des quantités massives de données étiquetées et de la puissance de calcul, le réglage fin exploite les connaissances existantes d'un modèle qui a déjà appris des schémas à partir d'une vaste base de données générale. connaissances existantes d'un modèle qui a déjà appris des modèles à partir d'un vaste ensemble de données générales. Ce processus est une application pratique de l'apprentissage par transfert, qui permet aux d'atteindre des performances élevées sur des problèmes de niche, tels que la détection de défauts de fabrication rares ou la classification de l'imagerie médicale, avec une réduction significative de la puissance de calcul. l'imagerie médicale - avec des ressources considérablement réduites.
Le processus commence par un modèle de base, tel que un modèle de vision formé sur ImageNet ou un modèle linguistique formé sur le corpus internet. Ces modèles possèdent une solide compréhension des caractéristiques fondamentales telles que les bords, les textures et les formes dans les images, ou la grammaire et la sémantique dans les textes. dans les images, ou la grammaire et la sémantique dans les textes. Lors de la mise au point, le modèle est exposé à un nouvel ensemble de données personnalisé, plus petit, correspondant à la cible visée. nouveau jeu de données personnalisé, plus petit, correspondant à l'application cible.
Le processus d'apprentissage consiste à ajuster légèrement les légèrement les poids du modèle pour tenir compte des des nouvelles données. Généralement, on utilise un taux d'apprentissage d'apprentissage plus faible afin de préserver les précieuses précieuses apprises au cours de la phase initiale de préformation tout en permettant au modèle de s'adapter. Dans de nombreux processus de flux de travail de vision par ordinateur, les ingénieurs peuvent geler les premières couches de l'épine dorsale - qui detect de base et n'affinent que les couches plus profondes et la tête de de détection responsable des prédictions finales. définitives.
L'adaptation d'un modèle de pointe comme Ultralytics YOLO11 à vos à vos données spécifiques est simple. La bibliothèque gère automatiquement les complexités du chargement des poids pré-entraînés et de la configuration de la boucle d'entraînement. et de la configuration de la boucle d'entraînement.
L'exemple suivant montre comment charger un modèle YOLO11 pré-entraîné et l'affiner sur un échantillon de données.
from ultralytics import YOLO
# Load a pre-trained YOLO11 model (uses COCO weights by default)
model = YOLO("yolo11n.pt")
# Fine-tune the model on a specific dataset configuration
# 'epochs' sets the training duration, and 'imgsz' defines input resolution
results = model.train(data="coco8.yaml", epochs=20, imgsz=640)
Le réglage fin permet de combler le fossé entre les capacités générales de l'IA et les exigences spécifiques à l'industrie.
Il est essentiel de distinguer le réglage fin des autres méthodes d'adaptation pour choisir la bonne approche :
Pour mettre en œuvre le réglage fin, les développeurs s'appuient sur des cadres robustes tels que PyTorch et TensorFlowqui fournissent l'infrastructure nécessaire pour la descente de gradient et la rétropropagation. pour la descente de gradient et la rétropropagation. Les bibliothèques modernes permettent de rationaliser encore davantage ces opérations ; par exemple, l'écosystème Ultralytics permet une l 'entraînement et la validation des modèles. Lors de la préparation des données pour l'affinage, il est essentiel d'assurer une de haute qualité est essentielle pour éviter de données, qui peut fausser les performances du modèle dans des dans des scénarios réels.