Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Desaprendizaje de máquinas

Descubre el «desaprendizaje» de máquinas para eliminar de forma selectiva datos de entrenamiento confidenciales. Descubre cómo garantizar el cumplimiento del RGPD y la privacidad de los datos con Ultralytics .

El «desaprendizaje automático» es una rama emergente del aprendizaje automático que se centra en eliminar la influencia de un subconjunto específico de datos de entrenamiento de un modelo entrenado. Dado que los modelos procesan enormes cantidades de información, la capacidad de «olvidar» datos de forma selectiva se ha convertido en algo crucial. Este proceso permite a los desarrolladores extraer puntos de datos específicos sin tener que volver a entrenar toda la arquitectura desde cero, lo que supone un ahorro significativo de tiempo y recursos computacionales.

El principal motor de esta tecnología es la privacidad de los datos. Con la llegada de estrictas normativas de protección de datos y disposiciones como el «derecho al olvido» del RGPD, los usuarios tienen el derecho legal de solicitar la supresión de su información personal. El «desaprendizaje automático» ofrece una vía para eliminar de forma segura estos datos de los modelos de aprendizaje profundo, garantizando el cumplimiento normativo al tiempo que se mantiene la utilidad general del modelo.

Cómo funciona el «desaprendizaje» de las máquinas

Los mecanismos tradicionales de descenso por gradiente entrelazan los datos de entrenamiento profundamente con los pesos de una red. Por ello, el simple hecho de eliminar la imagen o el archivo de texto original de una base de datos no borra los patrones aprendidos del propio modelo. Las técnicas de desaprendizaje automático se dividen generalmente en dos categorías: el desaprendizaje exacto y el desaprendizaje aproximado. El desaprendizaje exacto garantiza que el modelo final sea estadísticamente idéntico a un modelo entrenado íntegramente sin los datos olvidados, lo que a menudo se consigue mediante una inteligente partición del conjunto de datos. El desaprendizaje aproximado, frecuentemente tratado en estudios recientes sobre algoritmos de desaprendizaje eficientes, utiliza intervenciones matemáticas para ajustar los parámetros del modelo y enmascarar retroactivamente la influencia de los datos objetivo.

Es importante diferenciar el «desaprendizaje» de las máquinas del aprendizaje continuo. Mientras que el aprendizaje continuo tiene como objetivo añadir nuevos conocimientos de forma secuencial sin sufrir un olvido catastrófico, el desaprendizaje consiste en la eliminación deliberada y selectiva de conocimientos. Las organizaciones centradas en la equidad algorítmica también recurren al desaprendizaje para corregir los sesgos en la IA mediante la eliminación de datos perjudiciales o sesgados tras el entrenamiento.

Aplicaciones en el mundo real

Los algoritmos de desaprendizaje han pasado rápidamente de la investigación teórica sobre la seguridad de la IA a su aplicación práctica en diversos sectores.

  • detect idad e imagen médica: En el análisis de imágenes médicas, el consentimiento del paciente puede revocarse en cualquier momento. Si un paciente solicita que se retiren sus radiografías, los hospitales pueden recurrir al «desaprendizaje» para extraer sus patrones fisiológicos específicos de un modelo de diagnóstico sin comprometer la capacidad del sistema para detectar enfermedades en otros pacientes.
  • Vigilancia y seguridad: En los sistemas de vigilancia inteligentes modernos, las cámaras pueden capturar sin querer información de identificación personal (PII), como matrículas o rostros. El «desaprendizaje» permite a los desarrolladores eliminar de forma retroactiva esta PII específica de un modelo de visión artificial ya implementado para cumplir con las técnicas de IA que preservan la privacidad.

Aplicación de estrategias de desaprendizaje

Aunque las API de desaprendizaje directo en un solo paso siguen siendo un campo de investigación activo dentro de los retos del desaprendizaje automático, los profesionales suelen alcanzar un punto de referencia exacto de desaprendizaje seleccionando un conjunto de datos depurado e iniciando un ciclo rápido de reentrenamiento. Al utilizar la Ultralytics para la gestión de datos en la nube, se puede versionar fácilmente un conjunto de datos para excluir los datos revocados.

A continuación se muestra un breve Python que ilustra el enfoque básico del «desaprendizaje mediante reentrenamiento» de Ultralytics con un conjunto de datos depurado:

from ultralytics import YOLO

# Load an existing, pre-trained Ultralytics YOLO26 model
model = YOLO("yolo26n.pt")

# Naive exact unlearning: perform efficient retraining on a sanitized dataset.
# The 'sanitized_data.yaml' excludes the specific sensitive data to be "unlearned"
results = model.train(data="sanitized_data.yaml", epochs=50, device="cuda")

A medida que crece la demanda de optimización de modelos y robustez en las redes neuronales, el «desaprendizaje» se está convirtiendo en un requisito estándar. Tanto si gestionas complejos flujos de trabajo de clasificación de imágenes como si implementas modelos en el borde, la integración de mecanismos para olvidar datos de forma responsable garantiza que tus sistemas de IA sigan siendo conformes, justos y fiables.

Potencia con Ultralytics YOLO

Obtenga visión artificial avanzada para sus proyectos. Encuentre la licencia adecuada para sus objetivos hoy mismo.

Explore las opciones de licencia