Sintonize na YOLO Vision 2025!
25 de setembro de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glossário

Aprendizado Auto Supervisionado

Descubra como o aprendizado auto supervisionado utiliza dados não rotulados para treinamento eficiente, transformando a IA em visão computacional, PNL e muito mais.

O Aprendizado Auto Supervisionado (SSL) é uma técnica de aprendizado de máquina que permite que os modelos aprendam com vastas quantidades de dados não rotulados. Em vez de depender de rótulos fornecidos por humanos, o SSL gera automaticamente rótulos a partir dos próprios dados, criando e resolvendo uma "tarefa pretexto". Este processo força o modelo a aprender padrões e características subjacentes significativas dos dados, como texturas e formas em imagens ou estruturas gramaticais em texto. Essas características aprendidas criam uma base poderosa, permitindo que o modelo tenha um desempenho excepcionalmente bom em tarefas downstream com muito menos dados rotulados durante a fase de ajuste fino. O SSL preenche a lacuna entre o aprendizado supervisionado completo, que é faminto por dados, e o aprendizado não supervisionado puramente, que pode ser menos direcionado.

Como o Aprendizado Auto Supervisionado Funciona

A ideia central por trás do SSL é a tarefa pretexto — um problema autocriado que o modelo deve resolver. Os rótulos para esta tarefa são derivados diretamente dos dados de entrada. Ao resolver a tarefa pretexto, a rede neural aprende representações valiosas, ou embeddings, que capturam as características essenciais dos dados.

Tarefas de pretexto comuns em visão computacional incluem:

  • Previsão da Rotação da Imagem: O modelo recebe uma imagem que foi girada aleatoriamente (por exemplo, em 0, 90, 180 ou 270 graus) e deve prever o ângulo de rotação. Para fazer isso corretamente, ele deve reconhecer a orientação original do objeto.
  • Inpainting de Imagem: Uma porção de uma imagem é mascarada ou removida, e o modelo deve prever o patch ausente. Isso incentiva o modelo a aprender sobre o contexto e a textura das imagens.
  • Aprendizado Contrastivo: O modelo é treinado para aproximar as representações de imagens semelhantes (aumentadas) e afastar as representações de imagens diferentes. Frameworks como o SimCLR são exemplos populares dessa abordagem.

Este pré-treino em dados não rotulados resulta em pesos de modelo robustos que podem ser usados como ponto de partida para tarefas mais específicas.

SSL vs. Outros Paradigmas de Aprendizagem

É crucial diferenciar SSL de paradigmas de aprendizado de máquina relacionados:

  • Aprendizado Supervisionado: Depende inteiramente de dados rotulados, onde cada entrada é emparelhada com uma saída correta. O SSL, por outro lado, gera seus próprios rótulos a partir dos próprios dados, reduzindo significativamente a necessidade de rotulagem manual de dados.
  • Aprendizado Não Supervisionado: Visa encontrar padrões (como clustering) ou reduzir a dimensionalidade em dados não rotulados, sem tarefas predefinidas. Embora o SSL utilize dados não rotulados como o aprendizado não supervisionado, ele difere ao criar sinais de supervisão explícitos por meio de tarefas pretextuais para orientar o aprendizado de representação.
  • Aprendizado Semissupervisionado: Utiliza uma combinação de uma pequena quantidade de dados rotulados e uma grande quantidade de dados não rotulados. O pré-treinamento SSL pode ser frequentemente uma etapa preliminar antes do ajuste fino semissupervisionado.
  • Aprendizado Ativo: Concentra-se na seleção inteligente dos pontos de dados mais informativos de um conjunto não rotulado para serem rotulados por um humano. O SSL aprende com todos os dados não rotulados sem intervenção humana no circuito. Esses dois métodos podem ser complementares em um fluxo de trabalho de IA centrado em dados.

Aplicações no Mundo Real

O SSL avançou significativamente as capacidades de Inteligência Artificial (IA) em vários domínios:

  1. Avançando os Modelos de Visão Computacional: O pré-treinamento SSL permite que modelos como o Ultralytics YOLO aprendam recursos visuais robustos de conjuntos de dados de imagens não rotuladas massivos antes de serem ajustados para tarefas como detecção de objetos em veículos autônomos ou análise de imagens médicas. O uso de pesos pré-treinados derivados de SSL geralmente leva a um melhor desempenho e convergência mais rápida durante o treinamento do modelo.
  2. Alimentando Grandes Modelos de Linguagem (LLMs): Modelos de fundação como o GPT-4 e o BERT dependem fortemente de tarefas de pretexto SSL (como modelagem de linguagem mascarada) durante sua fase de pré-treinamento em vastos corpora de texto. Isso permite que eles entendam a estrutura da linguagem, a gramática e o contexto, alimentando aplicações que vão desde chatbots sofisticados e tradução automática até resumo de texto.

O SSL reduz significativamente a dependência de conjuntos de dados rotulados caros, democratizando o desenvolvimento de modelos de IA poderosos. Ferramentas como PyTorch e TensorFlow, juntamente com plataformas como o Ultralytics HUB, fornecem ambientes para aproveitar as técnicas de SSL para construir e implantar soluções de IA de ponta. Você pode encontrar as últimas pesquisas sobre SSL nas principais conferências de IA, como NeurIPS e ICML.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora
Link copiado para a área de transferência