Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Aprendizaje continuo

Descubra cómo el aprendizaje continuo permite a la IA adquirir nuevas habilidades sin olvidar las antiguas. Explore estrategias clave y actualice sus modelos Ultralytics para la IA de vanguardia.

El aprendizaje continuo (CL), a menudo denominado aprendizaje permanente, describe la capacidad de un modelo de inteligencia artificial para aprender secuencialmente nuevas tareas o adquirir nuevos conocimientos a lo largo del tiempo sin olvidar la información aprendida anteriormente . A diferencia de los procesos tradicionales de aprendizaje automático, en los que los modelos se entrenan una vez con un conjunto de datos estático y luego se implementan, el aprendizaje continuo imita la capacidad humana de adaptarse a nuevos entornos y aprender de nuevas experiencias de forma continua. El principal reto en este campo es superar el olvido catastrófico, un fenómeno por el cual el entrenamiento de una red neuronal con nuevos datos provoca una degradación drástica de su rendimiento en tareas antiguas, ya que los pesos optimizados para las tareas antiguas se sobrescriben.

Por qué es importante el aprendizaje continuo

En entornos dinámicos del mundo real, las distribuciones de datos rara vez permanecen estáticas. Por ejemplo, un sistema de percepción visual en un vehículo autónomo debe adaptarse a los cambios de estación, las nuevas normas de tráfico o los diferentes diseños urbanos sin perder la capacidad de reconocer las señales de tráfico básicas aprendidas durante su entrenamiento inicial. El reentrenamientotradicional desde cero con un conjunto de datos acumulativos suele ser computacionalmente costoso y poco práctico debido a las limitaciones de almacenamiento o a las preocupaciones por la privacidad . El aprendizaje continuo aborda estos problemas al permitir que los modelos se actualicen de forma incremental, lo que los hace más eficientes y escalables para aplicaciones de IA de vanguardia en las que los recursos son limitados.

Aplicaciones en el mundo real

  • Robótica y sistemas autónomos: los robots desplegados en entornos no estructurados necesitan manipular objetos novedosos o desplazarse por terrenos nuevos. Mediante el aprendizaje continuo, un robot puede dominar una tarea de fabricación específica y, posteriormente, aprender a manejar una línea de productos diferente sin necesidad de reiniciar completamente el sistema, lo que respalda de manera eficaz los procesos de innovación flexibles de la industria 4.0.
  • Diagnóstico por imágenes médicas: los datos sanitarios evolucionan a medida que surgen nuevas enfermedades o cambian los protocolos de diagnóstico por imágenes. Un sistema de IA que asiste a los radiólogos puede utilizar el aprendizaje continuo para incorporar nuevas patologías, como una nueva cepa de un virus que se observa en las radiografías, al tiempo que mantiene una alta precisión en la detección de afecciones comunes como la neumonía o las fracturas. Esta capacidad es vital para mantener actualizados los diagnósticos sanitarios sin comprometer la seguridad de los pacientes en los protocolos establecidos.

Estrategias clave para el aprendizaje continuo

Para mitigar el olvido catastrófico, los investigadores emplean varias estrategias. Los métodos de regularización añaden restricciones a la función de pérdida para evitar cambios significativos en pesos importantes identificados en tareas anteriores. Los métodos de reproducción almacenan un pequeño subconjunto de datos anteriores (o generan muestras sintéticas utilizando IA generativa) y los mezclan con nuevos datos durante el entrenamiento. Por último, el aislamiento de parámetros dedica subconjuntos específicos de los parámetros del modelo a diferentes tareas, lo que garantiza que las actualizaciones para una nueva tarea no interfieran con los parámetros optimizados para las anteriores. Los avances recientes en 2024 y 2025 se han centrado en el uso de modelos de lenguaje visual para identificar mejor qué características son genéricas y cuáles son específicas de cada tarea.

Aprendizaje continuo frente a aprendizaje por transferencia

Es importante distinguir el aprendizaje continuo del aprendizaje por transferencia. En el aprendizaje por transferencia, un modelo preentrenado actúa como punto de partida para resolver una nueva tarea específica, y el rendimiento en la tarea original suele ser irrelevante. El objetivo es maximizar el rendimiento en el dominio de destino. Por el contrario, el objetivo del aprendizaje continuo es obtener un buen rendimiento tanto en la nueva tarea como en todas las tareas anteriores. Del mismo modo, mientras que el aprendizaje activo se centra en seleccionar los puntos de datos más informativos para etiquetarlos para el entrenamiento, el aprendizaje continuo se centra en el proceso de actualización del propio modelo a lo largo del tiempo.

Actualización de un YOLO

Aunque el verdadero aprendizaje continuo requiere ajustes arquitectónicos especializados, los usuarios pueden simular este flujo de trabajo ajustando los modelos con nuevos datos mezclados con un búfer de datos antiguos. Ultralytics simplifica la gestión de estos conjuntos de datos y el control de versiones de los modelos. A continuación se muestra un ejemplo de cómo se podría abordar la actualización de un modelo utilizando la Python :

from ultralytics import YOLO

# Load a model previously trained on 'dataset_v1.yaml'
model = YOLO("yolo26n-v1.pt")

# Train the model on a new dataset containing new and old samples
# This helps mitigate catastrophic forgetting by "replaying" old data
results = model.train(
    data="dataset_v2_combined.yaml",
    epochs=50,
    imgsz=640,
    lr0=0.001,  # Lower learning rate for fine-tuning
)

Desafíos y futuras direcciones

A pesar de los avances, el aprendizaje continuo sigue siendo un área activa de investigación. Determinar el dilemaóptimo entre plasticidad y estabilidad—equilibrar la capacidad de aprender cosas nuevas (plasticidad) con la capacidad de retener las antiguas (estabilidad)— es difícil. Además, la evaluación de estos sistemas requiere sólidas métricas de rendimiento que tengan en cuenta tanto la transferencia hacia adelante (velocidad de aprendizaje en nuevas tareas) como la transferencia hacia atrás (impacto en tareas antiguas). A medida que los modelos básicos se hacen más grandes, los métodos eficientes de adaptación continua, como la adaptación de rango bajo (LoRA), se están volviendo cruciales para personalizar sistemas a gran escala sin necesidad de volver a entrenarlos por completo.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora