Glossário

Incorporação de vizinhos estocásticos t-distribuídos (t-SNE)

Explore o t-SNE, uma técnica poderosa para visualizar dados de alta dimensão. Conheça os seus usos, benefícios e aplicações em IA e ML.

O t-distributed Stochastic Neighbor Embedding (t-SNE) é uma poderosa técnica de redução de dimensionalidade não linear utilizada principalmente para a visualização de dados. Permite aos investigadores e profissionais da aprendizagem automática (ML) visualizar conjuntos de dados de elevada dimensão num espaço de baixa dimensão, normalmente um gráfico 2D ou 3D. Desenvolvido por Laurens van der Maaten e Geoffrey Hinton, o seu principal ponto forte é a sua notável capacidade de revelar a estrutura local subjacente dos dados, como clusters e manifolds, que outras técnicas podem não detetar. As implementações estão amplamente disponíveis em bibliotecas como o Scikit-learn e estruturas como o PyTorch.

A ideia central do t-SNE é colocar pontos de dados semelhantes próximos uns dos outros e pontos diferentes afastados num mapa de baixa dimensão. Para o efeito, converte as distâncias euclidianas de alta dimensão entre os pontos de dados em probabilidades condicionais que representam semelhanças. Em seguida, utiliza uma distribuição de probabilidade semelhante no mapa de baixa dimensão e minimiza a divergência entre estas duas distribuições.

Aplicações em IA e MI

O t-SNE é amplamente utilizado para a exploração visual em vários domínios da Inteligência Artificial (IA).

  • Visualizando recursos de redes neurais: Na Visão Computacional (CV), o t-SNE é inestimável para entender o que um modelo de aprendizagem profunda aprendeu. Por exemplo, você pode pegar os embeddings de recursos de uma camada intermediária de uma Rede Neural Convolucional (CNN) treinada para classificação de imagens e usar o t-SNE para plotá-los. Se o modelo, como um modelo Ultralytics YOLO, for bem treinado num conjunto de dados como o CIFAR-10, o gráfico resultante mostrará grupos distintos correspondentes às diferentes categorias de imagens (por exemplo, "gatos", "cães", "carros"). Este facto fornece uma confirmação visual do poder discriminativo do modelo.
  • Explorando dados de texto: No Processamento de Linguagem Natural (PLN), o t-SNE pode visualizar as palavras de alta dimensão incorporadas, como Word2Vec ou GloVe. Isto ajuda a compreender as relações semânticas entre as palavras; por exemplo, palavras como "rei", "rainha", "príncipe" e "princesa" agrupam-se. Estas visualizações são úteis para explorar corpora de texto e depurar modelos de linguagem utilizados em tarefas como a classificação de documentos.
  • Bioinformática e imagiologia médica: Os investigadores utilizam o t-SNE para visualizar dados biológicos complexos, como padrões de expressão de genes de microarrays, para identificar populações de células ou subtipos de doenças. Também é utilizada na análise de imagens médicas para agrupar diferentes tipos de tecidos ou tumores, como no conjunto de dados Brain Tumor.

T-SNE Vs. Outras técnicas

É importante distinguir o t-SNE de outros métodos de redução da dimensionalidade.

  • Análise de componentes principais (PCA): A PCA é uma técnica linear centrada na preservação da variância máxima dos dados, o que corresponde à preservação da estrutura global e de grande escala. Em contrapartida, o t-SNE é um método não linear que se destaca por revelar a estrutura local (ou seja, a forma como os pontos de dados individuais se agrupam). Embora a PCA seja mais rápida e determinística, a sua natureza linear pode não conseguir captar relações complexas que a t-SNE consegue. É prática comum utilizar primeiro o PCA para reduzir um conjunto de dados a um número intermédio de dimensões (por exemplo, 30-50) antes de aplicar o t-SNE para reduzir a carga computacional e o ruído.
  • Autoencodificadores: Os autoencoders são um tipo de rede neural que pode aprender representações de dados poderosas e não lineares. Embora mais flexíveis do que o PCA e o t-SNE, são muitas vezes menos interpretáveis e mais dispendiosos do ponto de vista computacional para treinar. São utilizados principalmente para extração de caraterísticas e não para visualização direta.

Considerações e limitações

Embora poderoso, o t-SNE tem algumas limitações que os utilizadores devem considerar.

  • Custo computacional: O algoritmo tem uma complexidade quadrática de tempo e espaço no número de pontos de dados, tornando-o lento para conjuntos de dados com centenas de milhares de amostras. Técnicas como Barnes-Hut t-SNE oferecem melhorias significativas de desempenho.
  • Sensibilidade dos hiperparâmetros: Os resultados podem ser significativamente influenciados pelos seus hiperparâmetros, particularmente a "perplexidade", que é uma estimativa do número de vizinhos próximos que cada ponto tem. Não existe um valor de perplexidade único e universalmente melhor. Um excelente recurso para entender esses efeitos é o artigo do Distill"How to Use t-SNE Effectively".
  • Interpretação da estrutura global: As visualizações t-SNE devem ser interpretadas com cautela. Os tamanhos relativos dos clusters e as distâncias entre eles no gráfico final não reflectem necessariamente a separação real no espaço de alta dimensão original. O algoritmo centra-se na preservação das vizinhanças locais e não na geometria global. Ferramentas como o TensorFlow Projetor permitem a exploração interactiva, o que pode ajudar a desenvolver a intuição. A gestão e a visualização de tais análises podem ser simplificadas utilizando plataformas como o Ultralytics HUB.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência