Aprenda sobre las épocas (epochs) en el aprendizaje automático: cómo impactan en el entrenamiento del modelo, previenen el sobreajuste y optimizan el rendimiento con Ultralytics YOLO.
En el aprendizaje automático (ML), una época representa una pasada completa de todo el conjunto de datos de entrenamiento a través del algoritmo de aprendizaje. Es un concepto fundamental en el proceso iterativo de entrenamiento de redes neuronales (NN), donde los modelos aprenden al ver repetidamente ejemplos de los datos. El número de épocas es un parámetro clave que determina cuántas veces el modelo aprenderá del conjunto completo de información de entrenamiento, lo que influye directamente en el rendimiento final y la calidad del modelo.
El objetivo principal del entrenamiento del modelo es permitir que un modelo aprenda patrones de los datos. Esto se logra ajustando los parámetros internos del modelo, conocidos como pesos del modelo, para minimizar una función de pérdida, que cuantifica el error entre las predicciones del modelo y la verdad fundamental real. Durante una sola época, el modelo procesa cada muestra de datos, y un algoritmo de optimización como el descenso de gradiente estocástico (SGD) actualiza estos pesos.
Entrenar un modelo durante múltiples épocas le permite refinar iterativamente sus parámetros. Con cada pasada, el modelo debería, en teoría, mejorar en su tarea, ya sea clasificación de imágenes o detección de objetos. Este proceso se gestiona utilizando frameworks populares de aprendizaje profundo como PyTorch o TensorFlow.
Aunque relacionados, estos términos describen diferentes aspectos del proceso de entrenamiento y a menudo se confunden.
Por ejemplo, si un conjunto de datos tiene 10.000 imágenes y el tamaño del lote es de 100, una época constará de 100 iteraciones (10.000 imágenes / 100 imágenes por lote).
Elegir el número correcto de épocas es una parte fundamental del ajuste de hiperparámetros. Implica encontrar un equilibrio para evitar dos problemas comunes:
Una técnica común para combatir el sobreajuste es la parada temprana, donde el entrenamiento se detiene una vez que el rendimiento del modelo en un conjunto de validación deja de mejorar. El progreso se puede supervisar utilizando herramientas como TensorBoard o a través de plataformas como Ultralytics HUB, lo que ayuda a visualizar las métricas de entrenamiento a lo largo de las épocas.
El concepto de épocas es universal en las aplicaciones de aprendizaje profundo.
Conducción autónoma: Un modelo de detección de objetos para un vehículo autónomo se entrena con un conjunto de datos masivo como Argoverse. El modelo, como Ultralytics YOLO11, podría entrenarse durante 50-100 épocas. Después de cada época, su rendimiento en un conjunto de validación se mide utilizando métricas como la precisión media promedio (mAP). Los ingenieros seleccionarán el modelo de la época que ofrezca el mejor equilibrio entre velocidad y precisión antes de su implementación.
Análisis de imágenes médicas: Un modelo para la detección de tumores en escaneos cerebrales se entrena en un conjunto de datos de imágenes médicas especializado. Dado que tales conjuntos de datos pueden ser pequeños, el modelo podría entrenarse durante varios cientos de épocas. Para evitar el sobreajuste, se utilizan técnicas como el aumento de datos, y la pérdida de validación se supervisa de cerca después de cada época. Esto asegura que el modelo final se generalice bien a los escaneos de nuevos pacientes. Seguir los consejos establecidos para el entrenamiento de modelos es crucial para el éxito en tales aplicaciones críticas.