Descubra como o Aprendizado Semissupervisionado combina dados rotulados e não rotulados para aprimorar modelos de IA, reduzir custos de rotulagem e aumentar a precisão.
A aprendizagem semi-supervisionada (SSL) é um paradigma poderoso na aprendizagem automática (ML) que preenche a lacuna entre a aprendizagem totalmente supervisionada e a e a aprendizagem não supervisionada. Enquanto os métodos métodos supervisionados requerem conjuntos de dados totalmente anotados e os métodos não supervisionados funcionam totalmente sem rótulos, a SSL funciona A SSL funciona aproveitando uma pequena quantidade de dados rotulados juntamente com um conjunto muito maior de dados não rotulados. Em muitos cenários do mundo real reais, a obtenção de dados em bruto é relativamente barata, mas o processo de mas o processo de rotulagem dos dados é caro, demorado e e requer conhecimentos humanos. A SSL aborda este estrangulamento utilizando os exemplos rotulados limitados para guiar o processo de aprendizagem, permitindo ao modelo extrair a estrutura dos dados. para orientar o processo de aprendizagem, permitindo que o modelo extraia estrutura e padrões dos vastos segmentos não rotulados, melhorando assim a precisão e generalização do modelo.
O mecanismo fundamental subjacente à SSL envolve a propagação de informações dos dados etiquetados para os dados não etiquetados. O processo processo começa geralmente por treinar um modelo inicial no pequeno conjunto de dados etiquetados. Este modelo é depois utilizado para inferir previsões sobre os dados não rotulados. As previsões mais confiantes - muitas vezes chamadas pseudo-rótulos - são tratadas como verdade, e o modelo é treinado novamente neste conjunto de dados alargado. Este ciclo iterativo permite às que as redes neuronais aprendam limites de decisão que que são mais robustos do que os aprendidos apenas com os dados rotulados.
As técnicas comuns utilizadas no SSL incluem:
A aprendizagem semi-supervisionada é particularmente transformadora nos sectores em que os dados são abundantes mas a anotação de especialistas é escassa.
Para compreender plenamente o SSL, é útil distingui-lo de paradigmas de aprendizagem semelhantes:
A implementação de um fluxo de trabalho semi-supervisionado envolve frequentemente um ciclo "professor-aluno" ou formação iterativa. Abaixo
encontra-se um exemplo concetual utilizando o ultralytics pacote Python para demonstrar como se pode inferir sobre
dados não rotulados para gerar previsões que podem servir de pseudo-rótulos para treino posterior.
from ultralytics import YOLO
# Initialize the YOLO11 model (Teacher)
model = YOLO("yolo11n.pt")
# Train initially on a small, available labeled dataset
model.train(data="coco8.yaml", epochs=10)
# Run inference on a directory of unlabeled images to generate predictions
# These results can be filtered by confidence to create 'pseudo-labels'
results = model.predict(source="./unlabeled_data", save_txt=True, conf=0.8)
# The saved text files from prediction can now be combined with the original
# dataset to retrain a robust 'Student' model.
Estruturas de aprendizagem profunda, como PyTorch e TensorFlow fornecem os blocos de construção necessários para implementar SSL e funções de perda. À medida que os modelos se tornam maiores e consomem muitos dados, técnicas como SSL estão se tornando uma prática padrão para maximizar a eficiência dos dados.
A futura plataforma Ultralytics foi concebida para simplificar fluxos de trabalho como estes, ajudando as equipas a gerir a transição dos dados brutos para a implementação de modelos, facilitando a curadoria de dados e processos de anotação automática. Ao utilizar eficazmente dados não rotulados, as organizações podem implementar soluções de IA de alto desempenho como YOLO11 de alto desempenho, como o YOLO11 , de forma mais rápida e económica do que confiar em métodos puramente métodos supervisionados.