Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Adaptación de dominios sin supervisión (UDA)

Descubre cómo la adaptación de dominios no supervisada (UDA) subsana las carencias de datos mediante datos sin etiquetar. Aprende a optimizar los modelos Ultralytics para su implementación en el mundo real.

La adaptación de dominios no supervisada (UDA) es una subdisciplina especializada del aprendizaje por transferencia diseñada para salvar la brecha de rendimiento entre dos distribuciones de datos distintas pero relacionadas. En los escenarios reales del aprendizaje automático, un modelo suele entrenarse con un conjunto de datos «de origen» muy bien etiquetado. Sin embargo, cuando se implementa en producción, a menudo se encuentra con un dominio «de destino» que difiere visualmente —por ejemplo, condiciones de iluminación variables, diferentes o patrones meteorológicos cambiantes. Tal y como se detalla en la descripción general de la adaptación de dominios en Wikipedia, las técnicas de UDA tienen como objetivo adaptar un modelo preentrenado a este nuevo dominio de destino utilizando únicamente datos sin etiquetar, mitigando de forma efectiva las caídas de rendimiento causadas por la deriva de los datos sin incurrir en costes masivos de reetiquetado.

Distinguir el UDA de conceptos relacionados

Para comprender el UDA es necesario diferenciarlo de otros paradigmas de entrenamiento de visión artificial similares. Mientras que los principiosfundamentales del aprendizaje por transferencia que se exploran en PyTorch aplican de manera general los conocimientos de una tarea a otra, el UDA aborda específicamente situaciones en las que el dominio de destino carece de etiquetas de referencia. Por el contrario, el aprendizaje semisupervisado asume que una pequeña fracción del conjunto de datos de destino está etiquetada. Al basarse íntegramente en datos de destino sin etiquetar, el UDA es esencial para adaptar los modelos a nuevos entornos en los que la anotación manual de datos es imposible o tiene un coste prohibitivo.

Aplicaciones prácticas de la adaptación de dominios

La capacidad de generalizar entre distintos ámbitos visuales es fundamental para los sistemas modernos de inteligencia artificial. Dos ejemplos destacados son:

Estrategias prácticas de implementación

La investigación actual en IA, incluidos los estudios de organizaciones como Google sobre la generalización robusta de modelos y la investigación de OpenAI sobre la robustez neuronal, hace hincapié en varias técnicas para el UDA. El entrenamiento adversarial, por ejemplo, entrena una red para extraer características que sean indistinguibles entre los dominios de origen y de destino. Como alternativa, los ingenieros suelen utilizar el pseudoetiquetado, en el que un modelo de detección de objetos de alta fiabilidad genera etiquetas temporales en el conjunto de datos de destino para facilitar el ajuste continuo.

A la hora de gestionar conjuntos de datos de origen y destino de gran volumen, la Ultralytics ofrece un entorno en la nube fluido para seleccionar, visualizar y anotar automáticamente imágenes sin etiquetar. Para los desarrolladores que crean flujos de inferencia optimizados para el borde, Ultralytics es la arquitectura recomendada gracias a sus representaciones de características robustas, su alta precisión y su eficiencia nativa de extremo a extremo.

from ultralytics import YOLO

# Load an Ultralytics YOLO26 model previously trained on a labeled source domain
model = YOLO("yolo26n.pt")

# Perform inference on the unlabeled target domain to generate pseudo-labels
# The save_txt=True argument exports confident predictions as new labels for UDA
results = model.predict(source="path/to/target_domain", conf=0.85, save_txt=True)

# These high-confidence pseudo-labels can now be used to fine-tune the model

Al revisar continuamente las últimas publicaciones sobre visión artificial en arXiv y utilizar marcos eficientes, los equipos de IA pueden implementar con éxito el UDA para mantener la precisión de sus modelos en condiciones del mundo real en constante cambio. Para obtener más orientación sobre cómo optimizar los flujos de entrada para evitar el cambio de dominio, consulte la documentación sobre aumentoTensorFlow o explore las arquitecturas avanzadas publicadas por el Laboratorio de IA de Stanford y los equipos de investigación del CSAIL del MIT.

¡Construyamos juntos el futuro de la IA!

Comience su viaje con el futuro del aprendizaje automático