Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Transfer Learning

Libere el poder del transfer learning para ahorrar tiempo, impulsar el rendimiento de la IA y abordar nuevas tareas con datos limitados utilizando modelos pre-entrenados.

El aprendizaje por transferencia es una técnica de aprendizaje automático en la que un modelo desarrollado para una tarea se reutiliza como punto de partida para un modelo sobre una segunda tarea relacionada. para un modelo sobre una segunda tarea relacionada. En lugar de entrenar un modelo desde cero, lo que requiere grandes cantidades de de datos de entrenamiento y recursos informáticos, el aprovecha los conocimientos -como mapas de características, ponderaciones y patrones- aprendidos en la tarea original. Este enfoque es la piedra angular del aprendizaje profundo moderno, especialmente en visión por computador (CV), lo que a los desarrolladores lograr una gran precisión significativamente menos datos y tiempos de entrenamiento más cortos.

Cómo funciona el Transfer Learning

El proceso se basa en la capacidad de redes neuronales para aprender representaciones jerárquicas. En las capas iniciales de un modelo, a menudo denominadas columna vertebral, la red aprende características visuales universales como bordes, texturas y formas. Estas características son aplicables a casi cualquier tarea visual.

El aprendizaje por transferencia suele constar de dos fases principales:

  1. Preentrenamiento: Un modelo se entrena en un conjunto de datos de referencia ImageNet (para clasificación) o COCO (para la detección). El modelo preentrenado posee una sólida comprensión de las estructuras visuales generales.
  2. Ajuste: El modelo preentrenado se adapta a una nueva tarea específica. En Durante el ajuste fino, el modelo se entrena en un conjunto de datos más pequeño y específico de la tarea, tarea específica. A menudo, los pesos de las capas iniciales se "congelan" (se mantienen estáticos) para conservar características aprendidas, mientras que sólo se actualizan las capas finales (el cabeza de detección o el clasificador).

Para una inmersión teórica más profunda, los apuntes de Stanford CS231n sobre Aprendizaje por Transferencia proporcionan un un recurso excelente.

Beneficios y pertinencia

El aprendizaje por transferencia aborda el problema habitual de la escasez de datos. Al empezar con características preaprendidas, los modelos evitan evitar el sobreajuste en conjuntos de datos pequeños y convergen que los modelos inicializados con pesos aleatorios.

  • Eficacia: Reduce el tiempo de formación de días o semanas a horas.
  • Rendimiento: A menudo rinde más Precisión y Recall porque el modelo parte de una comprensión de las imágenes basada en el "sentido común". sentido común" de las imágenes.
  • Accesibilidad: Permite a los usuarios crear potentes aplicaciones de IA sin necesidad de los clusters clústeres informáticos utilizados por los gigantes tecnológicos.

Aplicaciones en el mundo real

El aprendizaje por transferencia es la base de soluciones de sectores:

  • Análisis de imágenes médicas: Los modelos preentrenados en imágenes generales (como perros y gatos) se perfeccionan para detect anomalías en radiografías o resonancias magnéticas. resonancia magnética. Por ejemplo, los investigadores utilizan YOLO11 para detect tumores cerebrales con gran precisión, a pesar de disponer de datos médicos etiquetados limitados.
  • La IA en la agricultura: Un modelo general de detección de objetos puede adaptarse para identificar enfermedades específicas de los cultivos o vigilar la salud de las plantas. Esto permite herramientas de agricultura de precisión que detect fruta madura o las malas hierbas en tiempo real.

Transfer Learning vs. Conceptos Relacionados

Resulta útil distinguir el aprendizaje por transferencia de términos similares:

  • frente al aprendizaje por transferencia: El aprendizaje por transferencia requiere algunos datos etiquetados de la nueva tarea para afinar el modelo. Por el contrario, Por el contrario, el aprendizaje cero intenta classify objetos que el modelo nunca ha visto antes, basándose únicamente en descripciones semánticas o atributos sin ningún ejemplo de entrenamiento. semánticas o atributos sin ejemplos de entrenamiento.
  • frente a la destilación de conocimientos: La destilación del conocimiento se centra en la compresión del modelo, transfiriendo el conocimiento de un modelo grande de "profesor" a un modelo más pequeño de "alumno" para mejorar la eficacia. a un modelo más pequeño de "alumno" para mejorar la eficacia. El aprendizaje por transferencia se centra en la adaptación al dominio, trasladar los conocimientos de una tarea general a otra específica.

Ejemplo práctico

Los siguientes Python ejemplo demuestra cómo aplicar el aprendizaje por transferencia utilizando el sitio ultralytics biblioteca. Cargamos un modelo YOLO11 preentrenado en COCO y lo afinamos en un conjunto de datos de muestra.

from ultralytics import YOLO

# Load a pre-trained model (weights derived from the COCO dataset)
# This acts as our starting point for transfer learning
model = YOLO("yolo11n.pt")

# Fine-tune the model on a new dataset (e.g., COCO8)
# The model adapts its pre-learned features to the specific data
model.train(data="coco8.yaml", epochs=5)

# The updated model can now be used for inference on the new task
model.predict("path/to/image.jpg")

Para más detalles sobre la implementación, consulte el tutorial oficial de Tutorial de Aprendizaje por TransferenciaPyTorch o la Guía de Aprendizaje por TransferenciaTensorFlow .

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora