Descubra como o aprendizado auto supervisionado utiliza dados não rotulados para treinamento eficiente, transformando a IA em visão computacional, PNL e muito mais.
A aprendizagem auto-supervisionada (SSL) é uma abordagem transformadora no domínio da Inteligência Artificial (IA) que permite aos sistemas aprender a partir de dados não rotulados sem necessitar de anotação humana explícita. Ao contrário da Aprendizagem Supervisionadatradicional, que depende fortemente de vastos conjuntos de dados de exemplos rotulados manualmente, a SSL obtém os seus próprios sinais de supervisão diretamente dos próprios dados. Ao criar e resolver "tarefas de pretexto" - como preencher as palavras em falta numa como preencher palavras em falta numa frase ou prever a rotação de uma imagem - o modelo aprende a compreender a estrutura subjacente, o contexto e as contexto e caraterísticas da entrada. Esta capacidade é crucial para o desenvolvimento de modelos de base robustos que podem ser adaptados a uma vasta gama de tarefas a jusante com um mínimo de formação adicional.
O mecanismo central do SSL envolve a remoção de uma parte dos dados disponíveis e a atribuição de uma tarefa ao Rede Neural (NN) com reconstruir esses dados. Este processo força o modelo a aprender representações de alta qualidade, ou embeddingsque captam o significado semântico. Existem duas categorias principais de tarefas de pré-texto utilizadas na investigação e na indústria:
A aprendizagem auto-supervisionada revolucionou as indústrias ao desbloquear o valor de conjuntos de dados maciços e sem curadoria. Eis dois exemplos concretos do seu impacto:
Para compreender plenamente o SSL, é útil diferenciá-lo de paradigmas de aprendizagem semelhantes:
Na prática, a maioria dos programadores utiliza o SSL tirando partido do pesos do modelo que já foram pré-treinados em conjuntos de dados massivos. Por exemplo, o Ultralytics YOLO11 beneficia de capacidades de extração de caraterísticas profundas aperfeiçoadas através de uma formação extensiva. Embora YOLO seja supervisionado, o conceito de aprendizagem por transferência - pegar num modelo que compreende caraterísticas visuais e aplicá-lo a uma nova tarefa - é o principal principal benefício a jusante da investigação SSL.
O seguinte exemplo Python demonstra como carregar um modelo pré-treinado e ajustá-lo num conjunto de dados específico. Este fluxo de trabalho baseia-se nas representações de caraterísticas aprendidas durante a fase inicial de pré-treinamento.
from ultralytics import YOLO
# Load a pre-trained YOLO11 model (weights act as the learned representation)
model = YOLO("yolo11n.pt")
# Fine-tune the model on a specific task, leveraging its existing visual knowledge
# This transfer learning process is highly efficient due to robust pre-training
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)
# Perform inference to verify the model detects objects correctly
model.predict("https://ultralytics.com/images/bus.jpg", save=True)
À medida que os investigadores procuram modelos que aprendam mais como os humanos - através da observação e não da memorização - a SSL permanece na vanguarda da inovação. Os principais laboratórios de investigação, incluindo Google DeepMind e Meta AIcontinuam a publicar avanços que reduzem a dependência de dados rotulados. Na Ultralytics, estamos a integrar estes avanços na nossa I&D para YOLO26com o objetivo de fornecer modelos mais rápidos, mais pequenos e mais precisos, que possam generalizar eficazmente através de diversos Visão por Computador (CV) (CV). Ferramentas como PyTorch e a futura plataforma Ultralytics estão estão a tornar mais fácil do que nunca a implementação destas capacidades avançadas em ambientes de produção do mundo real.