Optimisez les modèles d'apprentissage automatique avec des données de validation pour éviter le surapprentissage, ajuster les hyperparamètres et garantir des performances robustes et réalistes.
Les données de validation constituent un point de contrôle essentiel dans le cycle de développement de l'apprentissage automatique. Elles servent de ensemble de données intermédiaire utilisé pour évaluer les performances d'un modèle pendant l'entraînement. Contrairement à l'ensemble de données principal utilisé pour enseigner l'algorithme, l'ensemble de validation fournit une estimation impartiale de la capacité du système à apprendre à généraliser à partir d' informations nouvelles et inconnues. En surveillant les métriques de ce sous-ensemble spécifique, les développeurs peuvent affiner la configuration du modèle et identifier des problèmes potentiels tels que le surajustement, où le système mémorise les exemples d'entraînement plutôt que de comprendre les modèles sous-jacents. Cette boucle de rétroaction est essentielle pour créer des solutions d'intelligence artificielle (IA) robustes qui fonctionnent de manière fiable dans le monde réel. .
La fonction principale des données de validation est de faciliter l'optimisation des hyperparamètres. Alors que les paramètres internes, tels que les poids du modèle, sont appris automatiquement au cours du processus d'entraînement, les hyperparamètres, notamment le taux d'apprentissage, la taille des lots et l'architecture du réseau, doivent être définis manuellement ou découverts par expérimentation.
Validation data allows engineers to compare different configurations effectively via model selection. For example, if a developer is training a YOLO26 model, they might test three different learning rates. The version that yields the highest accuracy on the validation set is typically selected. This process helps navigate the bias-variance tradeoff, ensuring the model is complex enough to capture data nuances but simple enough to remain generalizable.
Afin de garantir la rigueur scientifique, un ensemble de données complet est généralement divisé en trois sous-ensembles distincts. Il est essentiel de comprendre l' objectif unique de chacun d'entre eux pour une gestion efficace des données.
Dans Ultralytics , la validation d'un modèle est un processus simplifié. Lorsqu'un utilisateur lance l'entraînement ou la validation, le framework utilise automatiquement les images spécifiées dans la configuration YAML du jeu de données. Cela permet de calculer des indicateurs de performance clés tels que la précision moyenne (mAP), qui aide les utilisateurs à évaluer la précision de leurs tâches de détection ou de segmentation d'objets.
L'exemple suivant montre comment valider un modèle YOLO26 pré-entraîné sur l'ensemble COCO8 à l'aide de Python:
from ultralytics import YOLO
# Load the YOLO26 model (recommended for state-of-the-art performance)
model = YOLO("yolo26n.pt")
# Validate the model using the 'val' mode
# The 'data' argument points to the dataset config containing the validation split
metrics = model.val(data="coco8.yaml")
# Print the Mean Average Precision at IoU 0.5-0.95
print(f"Validation mAP50-95: {metrics.box.map}")
Les données de validation sont indispensables dans divers secteurs où la précision et la fiabilité sont incontournables.
In scenarios where data is scarce, setting aside a dedicated 20% for validation might remove too much valuable training information. In such cases, practitioners often employ Cross-Validation, specifically K-Fold Cross-Validation. This technique involves partitioning the data into 'K' subsets and rotating which subset serves as the validation data. This ensures that every data point is used for both training and validation, providing a statistically more robust estimate of model performance as described in statistical learning theory.
Effective use of validation data is a cornerstone of professional Machine Learning Operations (MLOps). By leveraging tools like the Ultralytics Platform, teams can automate the management of these datasets, ensuring that models are rigorously tested and optimized before they ever reach production.