Descubra cómo el Aprendizaje Semisupervisado combina datos etiquetados y no etiquetados para mejorar los modelos de IA, reducir los costes de etiquetado y aumentar la precisión.
El aprendizaje semisupervisado (SSL) es un potente paradigma del aprendizaje automático (AM) que tiende un puente entre el aprendizaje totalmente supervisado y el aprendizaje no supervisado. Mientras que los métodos supervisados supervisados requieren conjuntos de datos totalmente anotados y los métodos no supervisados funcionan totalmente sin etiquetas, el SSL funciona aprovechando una pequeña cantidad de datos etiquetados. de datos etiquetados junto a un conjunto mucho mayor de datos sin etiquetar. En muchos En muchos escenarios del mundo real, la obtención de datos brutos es relativamente barata, pero el proceso de etiquetado de los datos es caro y requiere mucho tiempo. etiquetado de los datos es caro, requiere mucho tiempo y requiere experiencia humana. SSL resuelve este cuello de botella utilizando los limitados ejemplos etiquetados para guiar el proceso de aprendizaje. aprendizaje, lo que permite al modelo extraer estructuras y patrones de los segmentos sin etiquetar, mejorando así la precisión y la generalización del modelo. la precisión y la generalización del modelo.
El mecanismo fundamental de SSL consiste en propagar información de los datos etiquetados a los no etiquetados. El proceso proceso suele comenzar con el entrenamiento de un modelo inicial en el pequeño conjunto de datos etiquetados. A continuación, este modelo se utiliza para inferir predicciones sobre los datos no etiquetados. Las predicciones más fiables -a menudo denominadas pseudoetiquetas- se tratan como la verdad sobre el terreno, y el modelo se vuelve a entrenar. y el modelo se vuelve a entrenar con este conjunto de datos ampliado. Este ciclo iterativo permite redes neuronales aprendan límites de decisión que los aprendidos a partir de los datos etiquetados.
Entre las técnicas habituales utilizadas en SSL se incluyen:
El aprendizaje semisupervisado es especialmente transformador en sectores en los que abundan los datos pero escasean las anotaciones de expertos. escasa.
Para entender bien la SSL, conviene distinguirla de otros paradigmas de aprendizaje similares:
La implantación de un flujo de trabajo semisupervisado suele implicar un bucle "profesor-alumno" o formación iterativa. En
se muestra un ejemplo conceptual en el que se utiliza el ultralytics paquete Python para demostrar cómo se puede inferir sobre
datos no etiquetados para generar predicciones que podrían servir como pseudo-etiquetas para el entrenamiento posterior.
from ultralytics import YOLO
# Initialize the YOLO11 model (Teacher)
model = YOLO("yolo11n.pt")
# Train initially on a small, available labeled dataset
model.train(data="coco8.yaml", epochs=10)
# Run inference on a directory of unlabeled images to generate predictions
# These results can be filtered by confidence to create 'pseudo-labels'
results = model.predict(source="./unlabeled_data", save_txt=True, conf=0.8)
# The saved text files from prediction can now be combined with the original
# dataset to retrain a robust 'Student' model.
Marcos de aprendizaje profundo como PyTorch y TensorFlow proporcionan los bloques de construcción necesarios para implementar SSL y funciones de pérdida personalizadas. A medida que los modelos se hacen más grandes y consumen más datos, técnicas como SSL se están convirtiendo en una práctica estándar para maximizar la eficiencia de los datos. para maximizar la eficiencia de los datos.
La próxima Plataforma Ultralytics está diseñada para agilizar flujos de trabajo como estos, ayudando a los equipos a gestionar la transición de los datos brutos a la implantación de modelos curación de datos y procesos de anotación automática. En datos no etiquetados, las organizaciones pueden desplegar soluciones de IA de alto rendimiento como YOLO11 de forma más rápida y asequible que con los métodos métodos supervisados.