Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Aprendizaje Semisupervisado

Descubra cómo el aprendizaje semisupervisado combina datos etiquetados y sin etiquetar para aumentar la precisión del modelo. Aprenda a implementar flujos de trabajo SSL con Ultralytics .

El aprendizaje semisupervisado (SSL) es un paradigma estratégico en el aprendizaje automático (ML) que actúa como puente entre dos métodos de entrenamiento tradicionales. Mientras que el aprendizaje supervisado se basa completamente en conjuntos de datos totalmente anotados y el aprendizaje no supervisado intenta encontrar patrones en los datos sin ninguna etiqueta, el SSL funciona combinando una pequeña cantidad de datos etiquetados con un conjunto significativamente mayor de datos sin etiquetar. Este enfoque es especialmente valioso en escenarios reales de visión artificial (CV), en los que la recopilación de imágenes sin procesar, como las grabaciones de vídeo de cámaras de seguridad o satélites, es relativamente barata, pero el proceso de etiquetado de datos por parte de expertos humanos es costoso, lento y requiere mucha mano de obra. Al utilizar eficazmente la estructura oculta en los ejemplos sin etiquetar, SSL puede mejorar significativamente la precisión y la generalización del modelo sin necesitar un presupuesto de anotación exhaustivo.

Mecanismos básicos del aprendizaje semisupervisado

El objetivo principal del SSL es propagar la información que se encuentra en el pequeño conjunto de ejemplos etiquetados al conjunto más grande sin etiquetar. Esto permite a la red neuronal aprender los límites de decisión que pasan por regiones de baja densidad de los datos, lo que da como resultado una clasificación o detección más sólida.

Dos técnicas populares impulsan la mayoría de los flujos de trabajo semisupervisados:

  • Pseudorrotulación: En este método, primero se entrena un modelo con los datos rotulados limitados. A continuación, se utiliza para ejecutar la inferencia en los datos sin rotular. Las predicciones que superan un umbral de confianza específico se tratan como «pseudorrotulaciones» o verdad fundamental. Estas predicciones fiables se añaden a los datos de entrenamiento y el modelo se vuelve a entrenar, mejorando iterativamente su rendimiento.
  • Regularización de la consistencia: esta técnica se basa en el aumento de datos. La idea es que un modelo deba generar predicciones similares para una imagen y una versión ligeramente modificada (aumentada) de esa misma imagen. Al minimizar la diferencia en las predicciones entre la versión original y la aumentada, el modelo aprende a centrarse en las características principales del objeto en lugar de en el ruido, lo que mejora su capacidad para manejar el sobreajuste.

Implementación práctica con YOLO

El siguiente Python muestra un flujo de trabajo sencillo de pseudoetiquetado utilizando ultralytics . Aquí, entrenamos un modelo YOLO26 en un pequeño conjunto de datos y luego lo utilizamos para generar etiquetas para un directorio de imágenes sin etiquetar.

from ultralytics import YOLO

# Load the latest YOLO26 model
model = YOLO("yolo26n.pt")

# Train initially on a small available labeled dataset
model.train(data="coco8.yaml", epochs=10)

# Run inference on unlabeled data to generate pseudo-labels
# Setting save_txt=True saves the detections as text files for future training
results = model.predict(source="./unlabeled_images", save_txt=True, conf=0.85)

Aplicaciones en el mundo real

El aprendizaje semisupervisado está transformando sectores en los que abundan los datos, pero escasea la experiencia.

  • Imágenes médicas: En la IA aplicada a la atención sanitaria, la adquisición de escáneres (rayos X, resonancias magnéticas) es un procedimiento estándar, pero contar con un radiólogo certificado que anote cada píxel para la detección de tumores resulta prohibitivamente caro. El SSL permite a los investigadores entrenar modelos de alto rendimiento utilizando solo una fracción de los casos anotados por expertos, aprovechando miles de escáneres archivados para refinar la comprensión del modelo de las estructuras biológicas .
  • Conducción autónoma: Las empresas de vehículos autónomos recopilan diariamente petabytes de datos de vídeo de los vehículos de su flota. Etiquetar cada fotograma para la detección de objetos y la segmentación semántica es imposible. A través del SSL, el sistema puede aprender de la gran mayoría de las horas de conducción sin etiquetar para comprender mejor los complejos entornos viales, las condiciones meteorológicas y los casos extremos poco frecuentes.

Distinguir conceptos relacionados

Para implementar soluciones de IA de manera eficaz, es fundamental comprender en qué se diferencia SSL de otras estrategias similares:

  • vs. Aprendizaje activo: Aunque ambos tratan datos sin etiquetar, su enfoque respecto al etiquetado difiere. El SSL asigna automáticamente etiquetas basadas en las predicciones del modelo . Por el contrario, el aprendizaje activo identifica los puntos de datos más «confusos» o inciertos y solicita explícitamente a un ser humano que los etiquete, optimizando así el tiempo humano en lugar de eliminarlos por completo.
  • vs. Aprendizaje por transferencia: El aprendizaje por transferencia consiste en tomar un modelo preentrenado en un conjunto de datos externo masivo (como ImageNet) y ajustarlo a su tarea específica. El SSL, sin embargo, se centra en aprovechar la parte sin etiquetar de la distribución de su conjunto de datos específico durante el propio proceso de entrenamiento.
  • vs. Aprendizaje auto-supervisado: Aunque los nombres son similares, el aprendizaje auto-supervisado a menudo se refiere a «tareas pretextadas» (como resolver un rompecabezas de fragmentos de imágenes) en las que los datos generan sus propias señales de supervisión sin etiquetas externas. El SSL implica específicamente el uso de un conjunto más pequeño de etiquetas verificadas para guiar el proceso.

Herramientas y perspectivas de futuro

A medida que los modelos de aprendizaje profundo (DL) crecen en tamaño, la eficiencia en el uso de los datos se vuelve primordial. Los marcos modernos como PyTorch y TensorFlow proporcionan el backend computacional para estos bucles de entrenamiento avanzados . Además, herramientas como la Ultralytics están simplificando el ciclo de vida de la gestión de conjuntos de datos. Al utilizar funciones como la autoanotación, los equipos pueden implementar flujos de trabajo semisupervisados más fácilmente, convirtiendo rápidamente los datos sin procesar en pesos de modelos listos para la producción . Esta evolución en MLOps garantiza que la barrera de entrada para crear sistemas de visión de alta precisión siga disminuyendo.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora