Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024
Glossaire

Recherche d'architecture neuronale (NAS)

Découvrez comment la recherche d'architecture neuronale (NAS) automatise la conception de réseaux neuronaux pour des performances optimisées dans la détection d'objets, l'IA, et plus encore.

La recherche d'architecture neuronale (NAS) est une technique qui automatise la conception de réseaux neuronaux artificiels (RNA). Traditionnellement, la conception d'une architecture de modèle très performante nécessitait une expertise importante et de nombreux essais et erreurs. La NAS automatise ce processus complexe en utilisant des algorithmes pour explorer un large éventail de conceptions de réseaux possibles et identifier l'architecture la plus optimale pour une tâche et un ensemble de données donnés. Cette automatisation accélère le développement de modèles d'apprentissage profond efficaces et puissants, rendant l'IA avancée plus accessible.

Comment fonctionne la recherche d'architecture neuronale

Le processus NAS peut être décomposé en trois composantes principales :

  1. Espace de recherche : Ceci définit l'ensemble de toutes les architectures possibles qui peuvent être conçues. Un espace de recherche peut être simple, spécifiant des choix pour les types de couches (par exemple, convolution, pooling) et leurs connexions, ou il peut être très complexe, permettant des motifs architecturaux novateurs. Un espace de recherche bien défini est crucial pour équilibrer la flexibilité et la faisabilité computationnelle.
  2. Stratégie de recherche : Il s'agit de l'algorithme utilisé pour explorer l'espace de recherche. Les premières méthodes utilisaient la recherche aléatoire, mais des stratégies plus sophistiquées ont depuis émergé. Les approches courantes comprennent l'apprentissage par renforcement, où un agent apprend à sélectionner des architectures optimales, et les algorithmes évolutionnaires, qui imitent la sélection naturelle pour "faire évoluer" de meilleures architectures au fil des générations. Les méthodes basées sur le gradient, comme celles de la recherche d'architecture différentiable (DARTS), sont également devenues populaires pour leur efficacité.
  3. Stratégie d'estimation des performances : Ce composant évalue la qualité de chaque architecture proposée. La méthode la plus simple consiste à entraîner complètement le modèle sur un ensemble de données et à mesurer ses performances, mais cela prend énormément de temps. Pour accélérer le processus, les chercheurs ont développé des techniques plus efficaces, comme l'utilisation d'ensembles de données plus petits, l'entraînement pour moins d'époques ou l'utilisation du partage de poids pour éviter d'entraîner chaque architecture à partir de zéro.

Applications et exemples

La NAS s'est avérée très efficace pour créer des modèles de pointe pour diverses tâches, dépassant souvent les architectures conçues par l'homme en termes de performances et d'efficacité.

  • Vision par ordinateur : La NAS est largement utilisée pour concevoir des architectures efficaces pour la détection d'objets et la classification d'images. Par exemple, la famille de modèles EfficientNet a été développée à l'aide de la NAS pour équilibrer systématiquement la profondeur, la largeur et la résolution du réseau. De même, des modèles comme DAMO-YOLO tirent parti d'une dorsale générée par la NAS pour atteindre un bon équilibre entre la vitesse et la précision pour la détection d'objets.
  • Analyse d'images médicales : Dans le domaine de la santé, NAS peut créer des modèles spécialisés pour des tâches telles que la détection de tumeurs dans les images ou la segmentation des structures cellulaires. NAS peut optimiser les architectures pour qu'elles fonctionnent efficacement sur le matériel spécialisé que l'on trouve dans les dispositifs médicaux, ce qui permet d'obtenir des diagnostics plus rapides et plus précis. Cela a un potentiel important pour améliorer l'IA dans le domaine de la santé.

NAS et concepts connexes

La NAS est un composant spécifique du domaine plus vaste de l'apprentissage automatique automatisé (AutoML). Alors que la NAS se concentre uniquement sur la recherche de la meilleure architecture de réseau neuronal, l'AutoML vise à automatiser l'ensemble du pipeline de ML, y compris des étapes telles que le prétraitement des données, l'ingénierie des caractéristiques, la sélection du modèle et le réglage des hyperparamètres.

Il est essentiel de distinguer la NAS du réglage des hyperparamètres : le réglage des hyperparamètres optimise les paramètres de configuration (comme le taux d'apprentissage ou la taille du lot) pour une architecture de modèle donnée et fixe, tandis que la NAS recherche l'architecture elle-même. Les deux techniques sont souvent utilisées ensemble pour obtenir des performances optimales du modèle. Des outils comme Optuna ou Ray Tune, qui s'intègrent aux modèles Ultralytics YOLO, sont populaires pour l'optimisation des hyperparamètres. Comprendre ces distinctions aide à appliquer les bonnes techniques d'automatisation pour construire des systèmes d'IA efficaces. Vous pouvez en apprendre davantage sur le réglage des hyperparamètres dans la documentation Ultralytics.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers