Glossaire

Mise au point

Ajustez les modèles d'apprentissage automatique comme Ultralytics YOLO pour des tâches spécifiques. Découvrez les méthodes, les applications et les meilleures pratiques ici !

Le réglage fin est une technique de base de l'apprentissage automatique qui consiste à prendre un modèle pré-entraîné sur un grand ensemble de données générales et à l'entraîner sur un ensemble de données plus petit et spécialisé. Ce processus, une forme d'apprentissage par transfert, permet d'adapter les connaissances acquises par le modèle afin d'exceller dans une tâche spécifique sans avoir à former un modèle à partir de zéro. En commençant par un modèle de base puissant, les développeurs peuvent atteindre des performances élevées avec beaucoup moins de données et de ressources informatiques, un concept exploré par des institutions telles que le Stanford AI Lab.

Comment fonctionne le réglage fin

Le processus commence par un modèle dont les poids ont déjà été optimisés sur un vaste ensemble de données comme ImageNet pour la vision ou un corpus de texte massif pour les grands modèles de langage (LLM). Ce modèle pré-entraîné comprend déjà des caractéristiques générales, telles que les bords et les textures dans les images ou la grammaire et la sémantique dans les textes. Le réglage fin poursuit ensuite le processus de formation, généralement en utilisant un taux d'apprentissage plus faible, sur un ensemble de données personnalisé adapté à l'application cible. Cela permet d'ajuster les paramètres du modèle pour qu'il devienne spécialisé dans les nuances spécifiques de la nouvelle tâche. Des frameworks tels que PyTorch et TensorFlow fournissent des outils complets pour la mise en œuvre de flux de travail de réglage fin.

Applications dans le monde réel

Le réglage fin est largement utilisé dans les domaines de la vision artificielle (CV) et du traitement du langage naturel (NLP).

  • Analyse d'images médicales: Un modèle comme Ultralytics YOLO11, pré-entraîné pour la détection générale d'objets sur l'ensemble de données COCO, peut être affiné sur une collection spécialisée de scans IRM pour détecter avec précision les tumeurs. Cette personnalisation est essentielle pour élaborer des solutions fiables d'IA dans le domaine de la santé.
  • Chatbots personnalisés : Une entreprise peut affiner un LLM puissant comme BERT sur sa documentation interne et ses journaux de support client. Le modèle qui en résulte devient un expert des produits de l'entreprise, ce qui permet de créer un chatbot très efficace et adapté au contexte pour son site web. De nombreux modèles de ce type sont disponibles sur des plateformes telles que Hugging Face.

Mise au point et concepts connexes

Il est important de différencier le réglage fin des autres techniques d'adaptation des modèles :

  • Formation à partir de zéro : Cette méthode consiste à initialiser un réseau neuronal avec des poids aléatoires et à l'entraîner sur un ensemble de données. Cette méthode nécessite de grandes quantités de données et de puissance de calcul (par exemple, des GPU) et est généralement moins efficace que le réglage fin d'un modèle pré-entraîné.
  • Parameter-Efficient Fine-Tuning (PEFT) : PEFT est un ensemble de méthodes qui représentent une évolution de l'ajustement fin plus économe en ressources. Au lieu de mettre à jour tous les poids du modèle, les techniques PEFT telles que LoRA gèlent le modèle original et n'entraînent qu'un petit nombre de nouveaux paramètres. Cela réduit considérablement les besoins en mémoire et en stockage, ce qui facilite l'adaptation de très grands modèles provenant d'organisations telles que Meta AI ou Google.
  • Prompt Tuning: Une méthode PEFT spécifique dans laquelle tous les poids du modèle original sont gelés. Au lieu d'ajuster le modèle lui-même, il apprend des "invites douces" spéciales (embeddings entraînables) qui sont ajoutées à l'entrée pour guider la sortie du modèle pour une tâche spécifique.
  • Génération améliorée par récupération (RAG): Cette technique améliore les résultats du modèle en fournissant des connaissances externes au moment de l'inférence, plutôt que de modifier les poids du modèle au cours de la formation. La RAG extrait les informations pertinentes d'une base de données et les ajoute à l'invite pour produire des réponses plus précises et plus actuelles.

Un réglage fin avec Ultralytics

Ultralytics simplifie le processus d'ajustement de ses modèles YOLO de pointe pour les applications personnalisées. Les utilisateurs peuvent facilement charger des poids pré-entraînés et commencer l'entraînement sur leurs propres ensembles de données pour des tâches telles que la classification, la détection ou la segmentation d' images. La plateforme Ultralytics HUB rationalise encore davantage ce flux de travail, en fournissant une solution intégrée pour la gestion des ensembles de données, des modèles d'entraînement et du déploiement éventuel. Pour obtenir les meilleures performances, le réglage fin est souvent associé à un réglage minutieux des hyperparamètres.

Rejoindre la communauté Ultralytics

Rejoignez l'avenir de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

S'inscrire
Lien copié dans le presse-papiers