Découvre comment la recherche d'architecture neuronale (NAS) automatise la conception de réseaux neuronaux pour des performances optimisées en matière de détection d'objets, d'IA, et plus encore.
La recherche d'architecture neuronale (NAS) est une technique automatisée dans le domaine de l'apprentissage automatique (ML) axée sur la conception de la structure optimale, ou architecture, des réseaux neuronaux (NN). Au lieu de s'appuyer sur des experts humains pour concevoir manuellement la disposition des réseaux par essais et erreurs, la RNA emploie des algorithmes pour explorer un vaste espace d'architectures possibles et identifier les plus efficaces pour une tâche et un ensemble de données donnés. Cette automatisation accélère le processus de développement et permet de découvrir de nouvelles architectures très performantes qui ne seraient pas intuitivement évidentes pour les concepteurs humains, en optimisant des paramètres tels que la précision, la vitesse(latence d'inférence) ou l'efficacité de calcul, ce qui est crucial pour déployer des modèles sur des appareils d'IA périphériques.
L'automatisation de la conception de l'architecture avec NAS offre des avantages significatifs :
Le NAS s'est avéré précieux dans divers domaines de l'apprentissage profond (DL) :
Un exemple frappant est YOLO, développé par Deci AI en utilisant la technologie NAS. Ce modèle cible spécifiquement les limites des modèles précédents. Ultralytics YOLO en incorporant des blocs favorables à la quantification trouvés grâce à NAS. Il en est résulté des modèles offrant un équilibre supérieur entre précision et latence, ce qui les rend très efficaces pour les applications en temps réel telles que l'IA dans les solutions automobiles et la gestion intelligente du trafic, même après la quantification du modèle dans des formats tels que INT8 pour un déploiement efficace. De plus amples informations sur les techniques de quantification sont disponibles dans des ressources telles que la documentationNVIDIA TensorRT ou le guideUltralytics sur les options de déploiement de modèles. Ultralytics prend en charge différents modèles de détection d'objets, y compris YOLO.
Dans le domaine de la santé, NAS est utilisé pour concevoir des réseaux neuronaux convolutifs (CNN) personnalisés pour l'analyse des images médicales. Par exemple, NAS peut optimiser les architectures pour des tâches telles que la détection de tumeurs dans les IRM (similaire à l'ensemble de données sur les tumeurs cérébrales) ou la segmentation d'organes dans les images de tomodensitométrie, ce qui pourrait conduire à des outils de diagnostic plus rapides et plus précis pour aider les cliniciens. L'application de l'IA à l'analyse des images médicales est un domaine en pleine expansion, comme le soulignent des institutions telles que les National Institutes of Health (NIH). La gestion de ces modèles et ensembles de données spécialisés peut être rationalisée à l'aide de plateformes comme Ultralytics HUB. Tu peux même utiliser YOLO11 pour la détection des tumeurs.
NAS est un composant spécifique dans le domaine plus large de l'apprentissage automatique des machines (AutoML). Alors que le NAS se concentre uniquement sur la recherche de la meilleure architecture de réseau neuronal, l'AutoML vise à automatiser l'ensemble du pipeline d'apprentissage automatique, y compris les étapes telles que le prétraitement des données, l'ingénierie des caractéristiques, la sélection des modèles et l'ajustement des hyperparamètres. Il est essentiel de distinguer le RNA de l'ajustement des hyperparamètres : l'ajustement des hyperparamètres optimise les paramètres de configuration (comme le taux d'apprentissage ou la taille du lot) pour une architecture de modèle donnée et fixe, alors que le RNA recherche l'architecture elle-même. Les deux techniques sont souvent utilisées conjointement pour obtenir des performances optimales du modèle. Des outils comme Optuna ou Ray Tune, qui s'intègre aux modèlesYOLO d 'Ultralytics , sont populaires pour l'optimisation des hyperparamètres. Comprendre ces distinctions permet d'appliquer les bonnes techniques d'automatisation pour construire des systèmes d'IA efficaces. Tu peux en savoir plus sur l'optimisation des hyperparamètres dans la documentation d'Ultralytics .
Comment fonctionne la recherche par architecture neuronale
Le processus fondamental des RNA comporte trois éléments principaux : un espace de recherche, une stratégie de recherche et une stratégie d'estimation des performances. L'espace de recherche définit l'ensemble des architectures de réseau possibles qui peuvent être conçues, en décrivant essentiellement les éléments constitutifs (comme les différents types de fonctions de convolution ou d'activation) et la façon dont ils peuvent être connectés. La stratégie de recherche guide l'exploration de cet espace, en utilisant des méthodes allant de la recherche aléatoire et de l'apprentissage par renforcement aux algorithmes évolutionnaires. Enfin, la stratégie d'estimation des performances évalue les performances d'une architecture candidate, ce qui implique souvent d'entraîner le réseau partiellement ou entièrement sur un ensemble de données et de mesurer ses performances, bien que des techniques telles que le partage des poids ou les prédicteurs de performance soient utilisées pour accélérer cette étape, comme le détaillent les recherches de Google AI. La gestion efficace de ces expériences peut être facilitée par des plateformes telles que Weights & Biases ou Ultralytics HUB.