Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Transfer Learning

Libere el poder del transfer learning para ahorrar tiempo, impulsar el rendimiento de la IA y abordar nuevas tareas con datos limitados utilizando modelos pre-entrenados.

El aprendizaje por transferencia es una técnica de aprendizaje automático (ML) en la que un modelo desarrollado para una tarea se reutiliza como punto de partida para un modelo en una segunda tarea relacionada. En lugar de construir un modelo desde cero, lo que requiere una gran cantidad de datos y recursos computacionales, el aprendizaje por transferencia aprovecha el conocimiento —como características, pesos y patrones— aprendido de una tarea de origen. Este enfoque es muy eficiente y se ha convertido en una piedra angular del aprendizaje profundo moderno, especialmente en la visión artificial (CV). Al utilizar un modelo pre-entrenado, los desarrolladores pueden lograr un mayor rendimiento con significativamente menos datos y tiempos de entrenamiento más cortos.

Cómo funciona el Transfer Learning

La idea central detrás del aprendizaje por transferencia es que un modelo entrenado en un conjunto de datos grande y general, como ImageNet para la clasificación de imágenes, ya ha aprendido a reconocer características universales como bordes, texturas y formas. Este conocimiento fundamental se almacena en las capas iniciales del modelo, a menudo denominadas backbone.

El proceso normalmente implica dos pasos principales:

  1. Comience con un modelo pre-entrenado: Se selecciona un modelo que ha sido previamente entrenado en un gran conjunto de datos de referencia. Por ejemplo, la mayoría de los modelos Ultralytics YOLO vienen con pesos pre-entrenados en el conjunto de datos COCO. Estos modelos ya poseen una comprensión sólida de las características generales de los objetos.
  2. Ajuste Fino: El modelo pre-entrenado se adapta entonces a una nueva tarea específica. Esta adaptación, conocida como ajuste fino, implica un mayor entrenamiento del modelo en un conjunto de datos más pequeño y específico para la tarea. Durante esta fase, la tasa de aprendizaje se mantiene típicamente baja para realizar pequeños ajustes en los pesos del modelo sin perder las valiosas características pre-aprendidas. Para una guía detallada, puede consultar el tutorial de PyTorch sobre el aprendizaje por transferencia.

Aplicaciones en el mundo real

El aprendizaje por transferencia no es solo un concepto teórico; tiene aplicaciones prácticas en muchas industrias.

  • Análisis de imágenes médicas: Un modelo puede ser preentrenado en el conjunto de datos general de ImageNet y luego ajustado para detectar anomalías específicas como tumores cerebrales a partir de resonancias magnéticas (RM). Dado que los datos médicos etiquetados suelen ser escasos y costosos de obtener, el aprendizaje por transferencia permite la creación de herramientas de diagnóstico precisas sin necesidad de millones de imágenes médicas. Para obtener más información sobre esto, vea cómo la IA está creando una nueva era de precisión en la radiología.
  • Vehículos Autónomos: Un modelo de detección de objetos puede ser pre-entrenado en un conjunto de datos masivo de imágenes de carretera y luego ajustado por un fabricante de coches específico para reconocer modelos de vehículos únicos u operar en condiciones climáticas específicas. Esto aprovecha el conocimiento existente de coches, peatones y señales, acelerando el desarrollo y mejorando la seguridad.

Transfer Learning vs. Conceptos Relacionados

Es importante diferenciar el aprendizaje por transferencia de otras técnicas de ML:

  • Modelos base: Estos son modelos a gran escala preentrenados en vastas cantidades de datos, diseñados específicamente para ser adaptados para diversas tareas posteriores. El aprendizaje por transferencia es el proceso de adaptación de estos modelos base.
  • Aprendizaje Zero-Shot: Esta técnica permite que un modelo reconozca clases que no ha visto durante el entrenamiento. Mientras que el aprendizaje por transferencia adapta un modelo a una nueva tarea con algunos datos nuevos, el aprendizaje zero-shot tiene como objetivo la generalización sin ningún ejemplo de las nuevas clases. Nuestra guía sobre Aprendizaje Few-Shot, Zero-Shot y por Transferencia explica estas diferencias con más detalle.
  • Destilación del Conocimiento: Esto implica entrenar un modelo "estudiante" más pequeño para imitar el comportamiento de un modelo "profesor" más grande para lograr eficiencia. El aprendizaje por transferencia se centra en adaptar el conocimiento de una tarea a otra, mientras que la destilación se centra en comprimir el conocimiento dentro de la misma tarea.

Herramientas y Frameworks

La aplicación del aprendizaje por transferencia es accesible a través de diversas herramientas y plataformas. Marcos como PyTorch y TensorFlow proporcionan una amplia documentación y modelos pre-entrenados. Plataformas como Ultralytics HUB agilizan todo el flujo de trabajo, permitiendo a los usuarios cargar fácilmente modelos pre-entrenados como YOLOv8 e YOLO11, realizar entrenamiento personalizado en nuevos conjuntos de datos y gestionar el despliegue de modelos. Para una comprensión teórica más profunda, recursos como la visión general de Stanford CS231n sobre el aprendizaje por transferencia son invaluables.

Únete a la comunidad de Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora
Enlace copiado al portapapeles