Glosario

Redes residuales (ResNet)

Descubra cómo ResNets revoluciona el aprendizaje profundo resolviendo gradientes de fuga, permitiendo redes ultradetalladas para el análisis de imágenes, PNL y mucho más.

Las redes residuales, comúnmente conocidas como ResNet, son un tipo innovador de arquitectura de red neuronal (NN ) que ha tenido un profundo impacto en el campo del aprendizaje profundo. Introducida por Kaiming He et al. en su artículo de 2015,"Deep Residual Learning for Image Recognition", ResNet hizo posible entrenar eficazmente redes neuronales extremadamente profundas, con cientos o incluso miles de capas. Esto se logró mediante la introducción de "bloques residuales" con "conexiones de salto", un concepto sencillo pero potente que mitiga el problema del gradiente de fuga, que suele afectar a las redes muy profundas.

Cómo funciona ResNet

La principal innovación de ResNet es el uso de conexiones de salto o atajos. En una red neuronal convolucional (CNN) tradicional, cada capa alimenta su salida directamente a la siguiente capa en secuencia. A medida que la red se hace más profunda, resulta cada vez más difícil que aprenda y que los gradientes se propaguen hacia atrás durante el entrenamiento. Esto puede llevar a una situación en la que añadir más capas de hecho degrada el rendimiento del modelo.

ResNet soluciona este problema permitiendo que la entrada de una capa (o un bloque de capas) se añada a su salida. Esta conexión de salto crea un camino alternativo por el que fluye el gradiente, garantizando que incluso las redes muy profundas puedan entrenarse con eficacia. Esta estructura permite a la red aprender funciones residuales: básicamente, las capas sólo necesitan aprender los cambios o residuos de la entrada, en lugar de la transformación completa. Si una capa no es beneficiosa, la red puede aprender fácilmente a ignorarla dirigiendo sus pesos hacia cero, permitiendo que el mapeo de identidad pase a través de la conexión de salto.

ResNet frente a otras arquitecturas

  • CNN estándar: A diferencia de las CNN secuenciales estándar, las ResNets pueden profundizar mucho más sin perder rendimiento, gracias al aprendizaje residual. Esta profundidad les permite aprender características más complejas y lograr una mayor precisión en tareas complejas.
  • U-Net: Aunque U-Net también utiliza conexiones de salto, su finalidad es diferente. En U-Net, las conexiones de salto enlazan capas de la ruta de muestreo descendente a la ruta de muestreo ascendente para recuperar información espacial que permita una segmentación precisa de la imagen. En ResNet, las conexiones suelen ser más cortas y están diseñadas para mejorar el flujo de gradiente y permitir arquitecturas más profundas.

Aplicaciones reales

Las potentes capacidades de extracción de características de ResNet la convierten en una opción popular como columna vertebral para muchas tareas complejas de visión por ordenador.

  • Análisis de imágenes médicas: En el ámbito de la IA para la atención sanitaria, las arquitecturas ResNet se utilizan para analizar exploraciones médicas como radiografías, TAC y resonancias magnéticas. Por ejemplo, un modelo basado en ResNet puede entrenarse en un conjunto de datos de escáneres cerebrales para ayudar a los radiólogos en la detección precoz de tumores, mejorando la precisión y rapidez del diagnóstico.
  • Conducción autónoma: Los sistemas de los coches de conducción autónoma dependen de redes troncales robustas para la percepción en tiempo real. ResNet se utiliza a menudo para procesar entradas de cámara para la detección de objetos, la identificación de peatones, vehículos y señales de tráfico, lo cual es crucial para los sistemas de navegación segura desarrollados por empresas como Waymo.

Herramientas y aplicación

Las arquitecturas ResNet están ampliamente implementadas en los principales marcos de aprendizaje profundo, como PyTorch y TensorFlow. Los modelos preentrenados, a menudo entrenados en el conjunto de datos a gran escala ImageNet, están fácilmente disponibles a través de bibliotecas como torchvision, lo que facilita un aprendizaje de transferencia eficaz para aplicaciones personalizadas. Plataformas como Ultralytics HUB permiten a los usuarios aprovechar diversas arquitecturas, incluidos los modelos basados en ResNet, para entrenar modelos personalizados para sus necesidades específicas. Aunque ResNet estableció una sólida base de rendimiento, desde entonces se han desarrollado arquitecturas más recientes, como EfficientNet, que ofrecen una mayor eficiencia. Puede encontrar más recursos educativos sobre CNN en el curso CS231n de Stanford o a través de cursos de proveedores como DeepLearning.AI.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles