Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Aprendizaje Semisupervisado

Descubra cómo el Aprendizaje Semisupervisado combina datos etiquetados y no etiquetados para mejorar los modelos de IA, reducir los costes de etiquetado y aumentar la precisión.

El aprendizaje semisupervisado (SSL) es un potente paradigma del aprendizaje automático (AM) que tiende un puente entre el aprendizaje totalmente supervisado y el aprendizaje no supervisado. Mientras que los métodos supervisados supervisados requieren conjuntos de datos totalmente anotados y los métodos no supervisados funcionan totalmente sin etiquetas, el SSL funciona aprovechando una pequeña cantidad de datos etiquetados. de datos etiquetados junto a un conjunto mucho mayor de datos sin etiquetar. En muchos En muchos escenarios del mundo real, la obtención de datos brutos es relativamente barata, pero el proceso de etiquetado de los datos es caro y requiere mucho tiempo. etiquetado de los datos es caro, requiere mucho tiempo y requiere experiencia humana. SSL resuelve este cuello de botella utilizando los limitados ejemplos etiquetados para guiar el proceso de aprendizaje. aprendizaje, lo que permite al modelo extraer estructuras y patrones de los segmentos sin etiquetar, mejorando así la precisión y la generalización del modelo. la precisión y la generalización del modelo.

Cómo funciona el Aprendizaje Semisupervisado

El mecanismo fundamental de SSL consiste en propagar información de los datos etiquetados a los no etiquetados. El proceso proceso suele comenzar con el entrenamiento de un modelo inicial en el pequeño conjunto de datos etiquetados. A continuación, este modelo se utiliza para inferir predicciones sobre los datos no etiquetados. Las predicciones más fiables -a menudo denominadas pseudoetiquetas- se tratan como la verdad sobre el terreno, y el modelo se vuelve a entrenar. y el modelo se vuelve a entrenar con este conjunto de datos ampliado. Este ciclo iterativo permite redes neuronales aprendan límites de decisión que los aprendidos a partir de los datos etiquetados.

Entre las técnicas habituales utilizadas en SSL se incluyen:

  • Seudoetiquetado: El modelo genera etiquetas para los datos no etiquetados, y las predicciones de alta confianza se añaden a los datos de entrenamiento. se añaden a los datos de entrenamiento. A menudo se utiliza junto con umbrales de confianza.
  • Regularización de la coherencia: Este método anima al modelo a producir la misma predicción para una imagen original y una versión perturbada de la misma (por ejemplo, tras aplicar aumento de datos). Si el modelo comprende la imagen no debería cambiar la clasificación. Puede leer más sobre conceptos de regularización de la consistencia en la literatura académica.
  • Métodos basados en gráficos: Los puntos de datos se representan como nodos en un gráfico, donde las aristas reflejan similitud. Las etiquetas se propagan de los nodos etiquetados a sus vecinos no etiquetados, una técnica que se utiliza a menudo en la investigación de las redes neuronales de grafos (GNN). de redes neuronales gráficas (GNN).

Aplicaciones en el mundo real

El aprendizaje semisupervisado es especialmente transformador en sectores en los que abundan los datos pero escasean las anotaciones de expertos. escasa.

  1. Análisis de imágenes médicas: En sanidad, la generación de un etiquetado para tareas como la detección de tumores requiere que radiólogos muy bien pagados anoten manualmente resonancias magnéticas o tomografías computarizadas. Con SSL, los investigadores pueden un pequeño conjunto de exploraciones verificadas por médicos y, a continuación, aprovechar miles de archivos hospitalarios no anotados para mejorar el rendimiento. el rendimiento. De este modo se reducen considerablemente los costes, al tiempo que se mantiene un alto nivel de diagnóstico en La IA en la sanidad.
  2. Reconocimiento de voz: los asistentes de voz especializados requieren cantidades ingentes de datos de audio. Aunque transcribir miles de horas de audio es poco práctico, las empresas tecnológicas pueden utilizar un pequeño conjunto de habla transcrita para para entrenar un modelo base. A continuación, este modelo aprende de los matices de millones de horas de audio no transcrito que se encuentran en de audio no transcrito que se encuentran en los datos de la web. mediante el reconocimiento automático del habla.

Diferenciar conceptos relacionados

Para entender bien la SSL, conviene distinguirla de otros paradigmas de aprendizaje similares:

  • SSL vs. Aprendizaje Autosupervisado: Aunque comparten acrónimo, son distintos. El aprendizaje autosupervisado crea sus propias etiquetas a partir de la estructura de los datos. (por ejemplo, predecir la siguiente palabra de una frase o un fragmento que falta en una imagen) sin etiquetas humanas. El aprendizaje semisupervisado sigue dependiendo de un conjunto de etiquetas proporcionadas por humanos para guiar el proceso.
  • SSL frente a aprendizaje activo: En aprendizaje activo, el modelo identifica qué puntos de datos son más confusos y pide explícitamente a un humano que los etiquete. que los etiquete. SSL, por el contrario, intenta resolver los datos no etiquetados automáticamente sin interrumpir el flujo de trabajo para la intervención humana.
  • SSL vs. Aprendizaje por transferencia: El aprendizaje por transferencia consiste en tomar pesos del modelo de una tarea de origen (como ImageNet) y afinarlos en una tarea de destino. SSL se centra en utilizar datos no etiquetados de la misma distribución de destino para mejorar el aprendizaje desde el principio. para mejorar el aprendizaje desde el principio.

Aplicación práctica

La implantación de un flujo de trabajo semisupervisado suele implicar un bucle "profesor-alumno" o formación iterativa. En se muestra un ejemplo conceptual en el que se utiliza el ultralytics paquete Python para demostrar cómo se puede inferir sobre datos no etiquetados para generar predicciones que podrían servir como pseudo-etiquetas para el entrenamiento posterior.

from ultralytics import YOLO

# Initialize the YOLO11 model (Teacher)
model = YOLO("yolo11n.pt")

# Train initially on a small, available labeled dataset
model.train(data="coco8.yaml", epochs=10)

# Run inference on a directory of unlabeled images to generate predictions
# These results can be filtered by confidence to create 'pseudo-labels'
results = model.predict(source="./unlabeled_data", save_txt=True, conf=0.8)

# The saved text files from prediction can now be combined with the original
# dataset to retrain a robust 'Student' model.

Herramientas y perspectivas de futuro

Marcos de aprendizaje profundo como PyTorch y TensorFlow proporcionan los bloques de construcción necesarios para implementar SSL y funciones de pérdida personalizadas. A medida que los modelos se hacen más grandes y consumen más datos, técnicas como SSL se están convirtiendo en una práctica estándar para maximizar la eficiencia de los datos. para maximizar la eficiencia de los datos.

La próxima Plataforma Ultralytics está diseñada para agilizar flujos de trabajo como estos, ayudando a los equipos a gestionar la transición de los datos brutos a la implantación de modelos curación de datos y procesos de anotación automática. En datos no etiquetados, las organizaciones pueden desplegar soluciones de IA de alto rendimiento como YOLO11 de forma más rápida y asequible que con los métodos métodos supervisados.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora