Obtenga información sobre las épocas en el aprendizaje automático: cómo afectan a la formación de modelos, cómo evitan el sobreajuste y cómo optimizan el rendimiento con Ultralytics YOLO.
En el aprendizaje automático, una época representa una pasada completa del conjunto de datos de entrenamiento por el algoritmo de aprendizaje. Es un concepto fundamental en el proceso iterativo de entrenamiento de redes neuronales (NN), en el que los modelos aprenden viendo repetidamente ejemplos de los datos. El número de épocas es un parámetro clave que determina cuántas veces aprenderá el modelo a partir del conjunto completo de información de entrenamiento, lo que influye directamente en el rendimiento final y la calidad del modelo.
El objetivo principal del entrenamiento de un modelo es permitirle aprender patrones a partir de los datos. Esto se consigue ajustando los parámetros internos del modelo, conocidos como pesos del modelo, para minimizar una función de pérdida, que cuantifica el error entre las predicciones del modelo y la verdad real sobre el terreno. Durante una sola época, el modelo procesa todas las muestras de datos y un algoritmo de optimización como el Descenso Gradiente Estocástico (SGD) actualiza estos pesos.
Entrenar un modelo durante varias épocas le permite refinar sus parámetros de forma iterativa. Con cada pasada, el modelo debería, en teoría, mejorar en su tarea, ya sea la clasificación de imágenes o la detección de objetos. Este proceso se gestiona utilizando marcos de aprendizaje profundo populares como PyTorch o TensorFlow.
Aunque están relacionados, estos términos describen aspectos diferentes del proceso de formación y a menudo se confunden.
Por ejemplo, si un conjunto de datos tiene 10.000 imágenes y el tamaño del lote es 100, una época constará de 100 iteraciones (10.000 imágenes / 100 imágenes por lote).
Elegir el número correcto de épocas es una parte crítica del ajuste de hiperparámetros. Se trata de encontrar un equilibrio para evitar dos problemas comunes:
Una técnica común para combatir el sobreajuste es la detención temprana, en la que el entrenamiento se detiene una vez que el rendimiento del modelo en un conjunto de validación deja de mejorar. El progreso puede supervisarse mediante herramientas como TensorBoard o plataformas como Ultralytics HUB, que ayuda a visualizar las métricas de entrenamiento a lo largo de las épocas.
El concepto de épocas es universal en las aplicaciones de aprendizaje profundo.
Conducción autónoma: Un modelo de detección de objetos para un vehículo autónomo se entrena en un conjunto de datos masivo como Argoverse. El modelo, como Ultralytics YOLO11, puede entrenarse durante 50-100 épocas. Después de cada época, se mide su rendimiento en un conjunto de validación utilizando métricas como la precisión media (mAP). Los ingenieros seleccionarán el modelo de la época que ofrezca el mejor equilibrio entre velocidad y precisión antes de su despliegue.
Análisis de imágenes médicas: Un modelo para la detección de tumores en escáneres cerebrales se entrena en un conjunto de datos especializado en imágenes médicas. Dado que estos conjuntos de datos pueden ser pequeños, el modelo puede entrenarse durante varios cientos de épocas. Para evitar el sobreajuste, se utilizan técnicas como el aumento de datos, y la pérdida de validación se controla de cerca después de cada época. De este modo se garantiza que el modelo final se generalice bien a las exploraciones de nuevos pacientes. Seguir los consejos establecidos para el entrenamiento de modelos es crucial para el éxito en este tipo de aplicaciones críticas.