Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Aprendizado Semissupervisionado

Descubra como o Aprendizado Semissupervisionado combina dados rotulados e não rotulados para aprimorar modelos de IA, reduzir custos de rotulagem e aumentar a precisão.

A aprendizagem semi-supervisionada (SSL) é um paradigma poderoso na aprendizagem automática (ML) que preenche a lacuna entre a aprendizagem totalmente supervisionada e a e a aprendizagem não supervisionada. Enquanto os métodos métodos supervisionados requerem conjuntos de dados totalmente anotados e os métodos não supervisionados funcionam totalmente sem rótulos, a SSL funciona A SSL funciona aproveitando uma pequena quantidade de dados rotulados juntamente com um conjunto muito maior de dados não rotulados. Em muitos cenários do mundo real reais, a obtenção de dados em bruto é relativamente barata, mas o processo de mas o processo de rotulagem dos dados é caro, demorado e e requer conhecimentos humanos. A SSL aborda este estrangulamento utilizando os exemplos rotulados limitados para guiar o processo de aprendizagem, permitindo ao modelo extrair a estrutura dos dados. para orientar o processo de aprendizagem, permitindo que o modelo extraia estrutura e padrões dos vastos segmentos não rotulados, melhorando assim a precisão e generalização do modelo.

Como Funciona o Aprendizado Semissupervisionado

O mecanismo fundamental subjacente à SSL envolve a propagação de informações dos dados etiquetados para os dados não etiquetados. O processo processo começa geralmente por treinar um modelo inicial no pequeno conjunto de dados etiquetados. Este modelo é depois utilizado para inferir previsões sobre os dados não rotulados. As previsões mais confiantes - muitas vezes chamadas pseudo-rótulos - são tratadas como verdade, e o modelo é treinado novamente neste conjunto de dados alargado. Este ciclo iterativo permite às que as redes neuronais aprendam limites de decisão que que são mais robustos do que os aprendidos apenas com os dados rotulados.

As técnicas comuns utilizadas no SSL incluem:

  • Pseudo-rotulagem: O modelo gera rótulos para dados não rotulados, e as previsões de alta confiança são de alta confiança são adicionadas aos dados de treino. Isto é frequentemente utilizado em em conjunto com limiares de confiança.
  • Regularização de consistência: Este método incentiva o modelo a produzir a mesma previsão para uma imagem original e uma versão perturbada da mesma (por exemplo, depois de aplicar aumento de dados). Se o modelo entender o objeto o objeto, inverter ou rodar ligeiramente a imagem não deverá alterar a classificação. Pode ler mais sobre conceitos de regularização de consistência na literatura académica.
  • Métodos baseados em gráficos: Os pontos de dados são representados como nós num gráfico, em que as arestas reflectem semelhança. As etiquetas são propagadas dos nós etiquetados para os seus vizinhos não etiquetados, uma técnica frequentemente discutida na pesquisa sobre redes neurais de grafos (GNN).

Aplicações no Mundo Real

A aprendizagem semi-supervisionada é particularmente transformadora nos sectores em que os dados são abundantes mas a anotação de especialistas é escassa.

  1. Análise de imagens médicas: Na área da saúde, a geração de um conjunto de dados rotulados para tarefas como deteção de tumores requer que radiologistas altamente remunerados anotem manualmente ressonâncias magnéticas ou tomografias computadorizadas. Com o SSL, os investigadores podem treinar um modelo num num pequeno conjunto de exames verificados por médicos e depois aproveitar milhares de arquivos hospitalares não anotados para melhorar o desempenho. Isto reduz significativamente os custos, mantendo elevados padrões de diagnóstico em IA nos cuidados de saúde.
  2. Reconhecimento de voz: os assistentes de voz especializados requerem grandes quantidades de dados áudio. Embora transcrever milhares de horas de áudio seja impraticável, as empresas de tecnologia podem utilizar um pequeno conjunto de discurso transcrito para treinar um modelo de base. Este modelo aprende depois com as nuances de milhões de horas de áudio não transcrito encontradas em dados da Web, aperfeiçoando a sua capacidade de compreender diversos sotaques e dialectos através do reconhecimento automático do discurso.

Diferenciação de conceitos relacionados

Para compreender plenamente o SSL, é útil distingui-lo de paradigmas de aprendizagem semelhantes:

  • SSL vs. Aprendizagem auto-supervisionada: Embora partilhem um acrónimo, são distintos. A aprendizagem auto-supervisionada cria as suas próprias etiquetas a partir da (por exemplo, prever a palavra seguinte numa frase ou uma mancha em falta numa imagem) sem quaisquer rótulos humanos. A aprendizagem semi-supervisionada continua a depender de um conjunto de sementes de etiquetas fornecidas por humanos para orientar o processo.
  • SSL vs. Aprendizagem Ativa: Na aprendizagem ativa, o modelo identifica os pontos de dados que são mais confusos e pede explicitamente a um humano para os rotular rotulá-los. A SSL, por outro lado, tenta resolver os dados não rotulados automaticamente sem interromper o fluxo de trabalho para humano.
  • SSL vs. Aprendizagem por transferência: A aprendizagem por transferência envolve a utilização de pesos de modelos de uma tarefa de origem (como o ImageNet) e ajustá-los numa tarefa de destino. A SSL centra-se na utilização de dados não rotulados da mesma distribuição alvo para melhorar a aprendizagem desde o início.

Aplicação prática

A implementação de um fluxo de trabalho semi-supervisionado envolve frequentemente um ciclo "professor-aluno" ou formação iterativa. Abaixo encontra-se um exemplo concetual utilizando o ultralytics pacote Python para demonstrar como se pode inferir sobre dados não rotulados para gerar previsões que podem servir de pseudo-rótulos para treino posterior.

from ultralytics import YOLO

# Initialize the YOLO11 model (Teacher)
model = YOLO("yolo11n.pt")

# Train initially on a small, available labeled dataset
model.train(data="coco8.yaml", epochs=10)

# Run inference on a directory of unlabeled images to generate predictions
# These results can be filtered by confidence to create 'pseudo-labels'
results = model.predict(source="./unlabeled_data", save_txt=True, conf=0.8)

# The saved text files from prediction can now be combined with the original
# dataset to retrain a robust 'Student' model.

Ferramentas e perspectivas futuras

Estruturas de aprendizagem profunda, como PyTorch e TensorFlow fornecem os blocos de construção necessários para implementar SSL e funções de perda. À medida que os modelos se tornam maiores e consomem muitos dados, técnicas como SSL estão se tornando uma prática padrão para maximizar a eficiência dos dados.

A futura plataforma Ultralytics foi concebida para simplificar fluxos de trabalho como estes, ajudando as equipas a gerir a transição dos dados brutos para a implementação de modelos, facilitando a curadoria de dados e processos de anotação automática. Ao utilizar eficazmente dados não rotulados, as organizações podem implementar soluções de IA de alto desempenho como YOLO11 de alto desempenho, como o YOLO11 , de forma mais rápida e económica do que confiar em métodos puramente métodos supervisionados.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora