Saiba como a aprendizagem contínua permite que a IA adquira novas competências sem esquecer. Explore estratégias importantes e atualize os seus modelos Ultralytics para IA de ponta.
A aprendizagem contínua (CL), frequentemente referida como aprendizagem ao longo da vida, descreve a capacidade de um modelo de inteligência artificial aprender sequencialmente novas tarefas ou adquirir novos conhecimentos ao longo do tempo sem esquecer as informações aprendidas anteriormente . Ao contrário dos pipelines tradicionais de aprendizagem automática, em que os modelos são treinados uma vez num conjunto de dados estático e depois implementados, a aprendizagem contínua imita a capacidade humana de se adaptar a novos ambientes e aprender com novas experiências de forma contínua. O principal desafio neste campo é superar o esquecimento catastrófico, um fenómeno em que o treino de uma rede neural com novos dados faz com que ela degrade drasticamente o seu desempenho em tarefas mais antigas, porque os pesos otimizados para as tarefas antigas são sobrescritos.
Em ambientes dinâmicos do mundo real, as distribuições de dados raramente permanecem estáticas. Por exemplo, um sistema de perceção visual num veículo autónomo deve adaptar-se às mudanças das estações, novas regras de trânsito ou diferentes layouts urbanos sem perder a capacidade de reconhecer sinais de trânsito básicos aprendidos durante o seu treino inicial. O treino tradicional a partir do zero num conjunto de dados cumulativo é frequentemente computacionalmente dispendioso e impraticável devido a restrições de armazenamento ou questões de privacidade . A aprendizagem contínua resolve essas questões, permitindo que os modelos sejam atualizados de forma incremental, tornando-os mais eficientes e escaláveis para aplicações de IA de ponta onde os recursos são limitados.
Para mitigar o esquecimento catastrófico, os investigadores empregam várias estratégias. Os métodos de regularização adicionam restrições à função de perda para evitar alterações significativas nos pesos importantes identificados em tarefas anteriores. Os métodos de repetição armazenam um pequeno subconjunto de dados anteriores (ou geram amostras sintéticas usando IA generativa) e misturam-nos com novos dados durante o treino. Por fim, o isolamento de parâmetros dedica subconjuntos específicos dos parâmetros do modelo a diferentes tarefas, garantindo que as atualizações para uma nova tarefa não interfiram nos parâmetros otimizados para as anteriores. Os avanços recentes em 2024 e 2025 têm-se concentrado na utilização de modelos de linguagem de visão para identificar melhor quais características são genéricas e quais são específicas da tarefa.
É importante distinguir a aprendizagem contínua da aprendizagem por transferência. Na aprendizagem por transferência, um modelo pré-treinado atua como ponto de partida para resolver uma nova tarefa específica, e o desempenho na tarefa original geralmente é irrelevante. O objetivo é maximizar o desempenho no domínio alvo. Em contrapartida, o objetivo da aprendizagem contínua é ter um bom desempenho tanto na nova tarefa como em todas as tarefas anteriores. Da mesma forma, enquanto a aprendizagem ativa se concentra na seleção dos pontos de dados mais informativos para rotular para o treino, a aprendizagem contínua concentra-se no processo de atualização do próprio modelo ao longo do tempo.
Embora a aprendizagem contínua verdadeira exija ajustes arquitetónicos especializados, os utilizadores podem simular esse fluxo de trabalho ajustando os modelos com base em novos dados misturados com um buffer de dados antigos. A Ultralytics simplifica o gerenciamento desses conjuntos de dados e o controle de versões dos modelos. Abaixo está um exemplo de como se pode abordar a atualização de um modelo usando a Python :
from ultralytics import YOLO
# Load a model previously trained on 'dataset_v1.yaml'
model = YOLO("yolo26n-v1.pt")
# Train the model on a new dataset containing new and old samples
# This helps mitigate catastrophic forgetting by "replaying" old data
results = model.train(
data="dataset_v2_combined.yaml",
epochs=50,
imgsz=640,
lr0=0.001, # Lower learning rate for fine-tuning
)
Apesar do progresso, a aprendizagem contínua continua a ser uma área ativa de investigação. Determinar o dilemaideal entre plasticidade e estabilidade— equilibrar a capacidade de aprender coisas novas (plasticidade) com a capacidade de reter as antigas (estabilidade) — é difícil. Além disso, avaliar esses sistemas requer métricas de desempenho robustas que levem em conta tanto a transferência para a frente (velocidade de aprendizagem em novas tarefas) quanto a transferência para trás (impacto em tarefas antigas). À medida que os modelos básicos se tornam maiores, métodos eficientes de adaptação contínua, como a Adaptação de Baixo Rank (LoRA), estão se tornando cruciais para personalizar sistemas de grande escala sem a necessidade de um retreinamento completo.