Glosario

Aprendizaje por transferencia

Libere el poder del aprendizaje por transferencia para ahorrar tiempo, aumentar el rendimiento de la IA y abordar nuevas tareas con datos limitados utilizando modelos preentrenados.

El aprendizaje por transferencia es una técnica de aprendizaje automático en la que un modelo desarrollado para una tarea se reutiliza como punto de partida para un modelo en una segunda tarea relacionada. En lugar de construir un modelo desde cero, lo que requiere una gran cantidad de datos y recursos computacionales, el aprendizaje por transferencia aprovecha el conocimiento -como características, pesos y patrones- aprendido de una tarea de origen. Este enfoque es muy eficiente y se ha convertido en la piedra angular del aprendizaje profundo moderno, especialmente en visión por ordenador (CV). Al utilizar un modelo preentrenado, los desarrolladores pueden lograr un mayor rendimiento con muchos menos datos y tiempos de entrenamiento más cortos.

Cómo funciona el aprendizaje por transferencia

La idea central del aprendizaje por transferencia es que un modelo entrenado en un conjunto de datos amplio y general, como ImageNet para la clasificación de imágenes, ya ha aprendido a reconocer características universales como bordes, texturas y formas. Estos conocimientos básicos se almacenan en las capas iniciales del modelo, a menudo denominadas "columna vertebral".

El proceso suele constar de dos pasos principales:

  1. Empezar con un modelo preentrenado: Se selecciona un modelo que haya sido previamente entrenado en un gran conjunto de datos de referencia. Por ejemplo, la mayoría de los modelos YOLO de Ultralytics vienen con pesos preentrenados en el conjunto de datos COCO. Estos modelos ya poseen un sólido conocimiento de las características generales de los objetos.
  2. Ajuste: El modelo preentrenado se adapta a una nueva tarea específica. Esta adaptación, conocida como "ajuste fino", implica un nuevo entrenamiento del modelo en un conjunto de datos más pequeño y específico de la tarea. Durante esta fase, la tasa de aprendizaje suele mantenerse baja para realizar pequeños ajustes en los pesos del modelo sin perder las valiosas características preaprendidas. Para obtener una guía detallada, puede consultar el tutorial de PyTorch sobre aprendizaje por transferencia.

Aplicaciones reales

El aprendizaje por transferencia no es sólo un concepto teórico, sino que tiene aplicaciones prácticas en muchos sectores.

  • Análisis de imágenes médicas: Se puede preentrenar un modelo en el conjunto de datos general ImageNet y luego afinarlo para detectar anomalías específicas como tumores cerebrales a partir de resonancias magnéticas. Dado que los datos médicos etiquetados suelen ser escasos y caros de obtener, el aprendizaje por transferencia permite crear herramientas de diagnóstico precisas sin necesidad de millones de imágenes médicas. Para más información al respecto, vea cómo la IA está creando una nueva era de precisión en radiología.
  • Vehículos autónomos: Un modelo de detección de objetos puede preentrenarse a partir de un enorme conjunto de datos de imágenes de carretera y luego ser ajustado por un fabricante de automóviles concreto para reconocer modelos de vehículos únicos o funcionar en condiciones meteorológicas específicas. Así se aprovechan los conocimientos existentes sobre coches, peatones y señales, lo que acelera el desarrollo y mejora la seguridad.

Aprendizaje por transferencia frente a conceptos afines

Es importante diferenciar el aprendizaje por transferencia de otras técnicas de ML:

  • Modelos de fundación: Se trata de modelos a gran escala preentrenados en grandes cantidades de datos, diseñados específicamente para ser adaptados a diversas tareas posteriores. El aprendizaje por transferencia es el proceso de adaptación de estos modelos básicos.
  • Aprendizaje Zero-Shot: Esta técnica permite a un modelo reconocer clases que no ha visto durante el entrenamiento. Mientras que el aprendizaje por transferencia adapta un modelo a una nueva tarea con algunos datos nuevos, el aprendizaje de tiro cero tiene como objetivo la generalización sin ningún ejemplo de las nuevas clases. Nuestra guía sobre Aprendizaje de pocos disparos, cero disparos y transferencia explica estas diferencias con más detalle.
  • Destilación del conocimiento: Consiste en entrenar a un modelo de "alumno" más pequeño para que imite el comportamiento de un modelo de "profesor" más grande para lograr la eficiencia. El aprendizaje por transferencia se centra en adaptar los conocimientos de una tarea a otra, mientras que la destilación se centra en comprimir los conocimientos dentro de la misma tarea.

Herramientas y marcos

La aplicación del aprendizaje por transferencia es accesible a través de diversas herramientas y plataformas. Frameworks como PyTorch y TensorFlow proporcionan amplia documentación y modelos preentrenados. Plataformas como Ultralytics HUB agilizan todo el flujo de trabajo, permitiendo a los usuarios cargar fácilmente modelos preentrenados como YOLOv8 y YOLO11, realizar entrenamientos personalizados en nuevos conjuntos de datos y gestionar el despliegue de modelos. Para una comprensión teórica más profunda, recursos como la visión general de Stanford CS231n sobre el aprendizaje por transferencia son muy valiosos.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles