Saiba mais sobre épocas no aprendizado de máquina - como elas afetam o treinamento do modelo, evitam o ajuste excessivo e otimizam o desempenho com o Ultralytics YOLO.
No contexto da formação de modelos de modelos de inteligência artificial (IA), uma refere-se a uma passagem completa de todo o conjunto de dados de treino através do algoritmo de aprendizagem. É uma unidade de tempo unidade de tempo fundamental no treino de redes neuronais (NN), marcando o ponto em que o modelo modelo teve a oportunidade de aprender com cada amostra dos dados fornecidos exatamente uma vez. Como os modelos de aprendizagem profunda raramente atingem o desempenho ótimo depois de verem os dados uma única vez, o treino envolve normalmente o treino envolve normalmente a repetição deste processo ao longo de muitas épocas para minimizar os erros e aperfeiçoar os parâmetros internos.
O objetivo principal durante uma época é ajustar os pesos do modelo para mapear as entradas para as saídas corretas corretas. Durante este processo, um algoritmo de otimização, como o Stochastic estocásticoSGD), calcula o erro usando uma função de perda específica e actualiza o estado interno do modelo.
A aprendizagem de passagem única é muitas vezes insuficiente porque os conjuntos de dados contêm variações complexas e ruído. Ao executar várias épocas, o modelo melhora iterativamente a sua capacidade de realizar tarefas como classificação ou segmentação de imagens. Este Este refinamento iterativo permite à rede generalizar padrões a partir dos dados de treinamento, em vez de simplesmente memorizar exemplos específicos. Estruturas de aprendizagem profunda como PyTorch e TensorFlow fornecem mecanismos mecanismos para controlar o ciclo de formação ao longo destes ciclos.
Para compreender como é que os circuitos de formação funcionam de forma eficiente, é crucial distinguir entre três termos intimamente relacionados que são frequentemente confundidos pelos principiantes:
Por exemplo, se tiver um conjunto de dados de 10 000 imagens e definir um tamanho de lote de 100, serão necessárias 100 iterações para completar uma época.
A seleção do número correto de épocas é um aspeto crítico da afinação de hiperparâmetros. O treino para muito poucos ou demasiados ciclos pode levar a um desempenho inferior ao ótimo.
Para atenuar estes problemas, os engenheiros utilizam frequentemente paragem precoce, uma técnica que interrompe o treino quando a perda de validação pára de melhorar, independentemente do total de épocas especificadas. Ferramentas de visualização como o TensorBoard são frequentemente usadas para monitorar essas métricas em tempo real.
O conceito de épocas é universal em vários domínios de aprendizagem automática (ML).
Ao utilizar o ultralytics a especificação do número de épocas é simples. O
train() aceita um método epochs que controla o número de vezes que o modelo itera
sobre os dados fornecidos.
from ultralytics import YOLO
# Load the YOLO11 model (recommended for latest performance)
model = YOLO("yolo11n.pt")
# Train the model for 50 epochs on the COCO8 dataset
# The 'epochs' argument defines the total passes through the data
results = model.train(data="coco8.yaml", epochs=50, imgsz=640)
Este excerto demonstra como iniciar uma execução de treino em que o modelo irá aperfeiçoar a sua compreensão do conjunto de dados conjunto de dados "coco8" 50 vezes diferentes. Para futuros avanços, Ultralytics está atualmente a desenvolver o YOLO26, que suportará o treinamento de ponta a ponta com ainda mais eficiência, com lançamento previsto para final de 2025.