Libérez la puissance de l'apprentissage par transfert pour gagner du temps, améliorer les performances de l'IA et aborder de nouvelles tâches avec des données limitées à l'aide de modèles pré-entraînés.
L'apprentissage par transfert est une technique d'apprentissage automatique qui consiste à réutiliser un modèle développé pour une tâche donnée comme point de départ d'un modèle pour une deuxième tâche connexe. d'un modèle pour une deuxième tâche connexe. Au lieu de former un modèle à partir de zéro, ce qui nécessite de grandes quantités de données d'apprentissage et de ressources informatiques, le transfert est une technique d'apprentissage automatique. de données d'apprentissage et de ressources informatiques, l'apprentissage l'apprentissage par transfert exploite les connaissances - telles que les cartes de caractéristiques, les poids et les modèles - acquises dans le cadre d'une tâche source. Cette approche Cette approche est la pierre angulaire de l'apprentissage profond moderne, particulièrement dans le domaine de la vision artificielle (CV), ce qui permet aux développeurs d'obtenir une grande précision avec un minimum d'efforts. aux développeurs d'atteindre une grande précision avec avec beaucoup moins de données et des temps d'apprentissage plus courts.
Le processus repose sur la capacité des réseaux neuronaux d'apprendre des représentations hiérarchiques. Dans les couches initiales d'un modèle, souvent appelées l'épine dorsale, le réseau apprend des caractéristiques visuelles universelles. l'épine dorsale, le réseau apprend des caractéristiques visuelles universelles comme les bords, les textures et les formes. comme les bords, les textures et les formes. Ces caractéristiques sont applicables à presque toutes les tâches visuelles.
L'apprentissage par transfert comporte généralement deux phases principales :
Pour un approfondissement théorique, les notes de Stanford CS231n sur l'apprentissage par transfert fournissent un aperçu de l'apprentissage par transfert. Stanford CS231n sur l'apprentissage par transfert constituent une une excellente ressource.
L'apprentissage par transfert répond au défi commun de la pénurie de données. En commençant par des caractéristiques préapprises, les modèles évitent le surajustement sur les petits ensembles de données et convergent beaucoup plus rapidement. surajoutés sur de petits ensembles de données et convergent beaucoup plus rapidement convergent beaucoup plus rapidement que les modèles initialisés avec des poids aléatoires.
L'apprentissage par transfert est à l'origine de solutions d'IA largement utilisées dans diverses industries :
Il est utile de distinguer l'apprentissage par transfert des termes similaires :
Le texte suivant Python L'exemple montre comment appliquer l'apprentissage par transfert en utilisant
l'exemple ultralytics bibliothèque. Nous chargeons un modèle YOLO11 pré-entraîné sur COCO et l'affinons sur un échantillon de données.
from ultralytics import YOLO
# Load a pre-trained model (weights derived from the COCO dataset)
# This acts as our starting point for transfer learning
model = YOLO("yolo11n.pt")
# Fine-tune the model on a new dataset (e.g., COCO8)
# The model adapts its pre-learned features to the specific data
model.train(data="coco8.yaml", epochs=5)
# The updated model can now be used for inference on the new task
model.predict("path/to/image.jpg")
Pour plus de détails sur l'implémentation, se référer au tutoriel officiel de Tutoriel officiel d'apprentissage par transfertPyTorch ou le Guide d'apprentissage par transfertTensorFlow .