¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glosario

Búsqueda de Arquitectura Neuronal (NAS)

Descubra cómo la búsqueda de arquitectura neuronal (NAS) automatiza el diseño de redes neuronales para un rendimiento optimizado en la detección de objetos, la IA y más.

La búsqueda de arquitectura neuronal (NAS) es una técnica que automatiza el diseño de redes neuronales artificiales (NN). Tradicionalmente, el diseño de una arquitectura de modelo de alto rendimiento requería una gran experiencia y un extenso proceso de prueba y error. NAS automatiza este complejo proceso mediante el uso de algoritmos para explorar una amplia gama de posibles diseños de red e identificar la arquitectura más óptima para una tarea y un conjunto de datos determinados. Esta automatización acelera el desarrollo de modelos de aprendizaje profundo eficientes y potentes, lo que hace que la IA avanzada sea más accesible.

¿Cómo funciona la búsqueda de arquitectura neuronal?

El proceso de NAS se puede dividir en tres componentes principales:

  1. Espacio de Búsqueda: Esto define el conjunto de todas las arquitecturas posibles que se pueden diseñar. Un espacio de búsqueda puede ser simple, especificando opciones para los tipos de capa (por ejemplo, convolución, pooling) y sus conexiones, o puede ser muy complejo, permitiendo motivos arquitectónicos novedosos. Un espacio de búsqueda bien definido es crucial para equilibrar la flexibilidad y la viabilidad computacional.
  2. Estrategia de Búsqueda: Este es el algoritmo utilizado para explorar el espacio de búsqueda. Los primeros métodos utilizaban la búsqueda aleatoria, pero desde entonces han surgido estrategias más sofisticadas. Los enfoques comunes incluyen el aprendizaje por refuerzo, donde un agente aprende a seleccionar arquitecturas óptimas, y los algoritmos evolutivos, que imitan la selección natural para "evolucionar" mejores arquitecturas a lo largo de generaciones. Los métodos basados en gradientes, como los de la Búsqueda de Arquitectura Diferenciable (DARTS), también se han hecho populares por su eficiencia.
  3. Estrategia de Estimación del Rendimiento: Este componente evalúa la calidad de cada arquitectura propuesta. El método más sencillo es entrenar el modelo completamente en un conjunto de datos y medir su rendimiento, pero esto requiere mucho tiempo. Para acelerar el proceso, los investigadores han desarrollado técnicas más eficientes, como el uso de conjuntos de datos más pequeños, el entrenamiento durante menos épocas o el uso del intercambio de pesos para evitar el entrenamiento de cada arquitectura desde cero.

Aplicaciones y ejemplos

NAS ha demostrado ser muy eficaz en la creación de modelos de última generación para diversas tareas, a menudo superando a las arquitecturas diseñadas por humanos en rendimiento y eficiencia.

  • Visión Artificial: NAS se utiliza ampliamente para diseñar arquitecturas eficientes para la detección de objetos y la clasificación de imágenes. Por ejemplo, la familia de modelos EfficientNet se desarrolló utilizando NAS para equilibrar sistemáticamente la profundidad, la anchura y la resolución de la red. Del mismo modo, modelos como DAMO-YOLO aprovechan una estructura vertebral generada por NAS para lograr un fuerte equilibrio entre velocidad y precisión en la detección de objetos.
  • Análisis de imágenes médicas: En la atención médica, NAS puede crear modelos especializados para tareas como la detección de tumores en exploraciones o la segmentación de estructuras celulares. NAS puede optimizar arquitecturas para que se ejecuten de manera eficiente en el hardware especializado que se encuentra en los dispositivos médicos, lo que lleva a diagnósticos más rápidos y precisos. Esto tiene un potencial significativo para mejorar la IA en la atención médica.

NAS y Conceptos Relacionados

NAS es un componente específico dentro del campo más amplio del Aprendizaje Automático Automatizado (AutoML). Mientras que NAS se centra únicamente en encontrar la mejor arquitectura de red neuronal, AutoML tiene como objetivo automatizar toda la canalización de ML, incluidos pasos como el preprocesamiento de datos, la ingeniería de características, la selección de modelos y el ajuste de hiperparámetros.

Es crucial distinguir NAS del ajuste de hiperparámetros: el ajuste de hiperparámetros optimiza los ajustes de configuración (como la tasa de aprendizaje o el tamaño del lote) para una arquitectura de modelo dada y fija, mientras que NAS busca la arquitectura en sí. Ambas técnicas se utilizan a menudo juntas para lograr un rendimiento óptimo del modelo. Herramientas como Optuna o Ray Tune, que se integran con los modelos Ultralytics YOLO, son populares para la optimización de hiperparámetros. Comprender estas distinciones ayuda a aplicar las técnicas de automatización adecuadas para construir sistemas de IA eficientes. Puede obtener más información sobre el ajuste de hiperparámetros en la documentación de Ultralytics.

Únete a la comunidad de Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora
Enlace copiado al portapapeles