Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

t-distributed Stochastic Neighbor Embedding (t-SNE)

Explore t-SNE, una técnica eficaz para visualizar datos de alta dimensionalidad. Conozca sus usos, beneficios y aplicaciones en IA y ML.

t-distributed Stochastic Neighbor Embedding (t-SNE) es una sofisticada técnica de reducción dimensional no lineal. no lineal de reducción de la dimensionalidad utilizada principalmente para explorar y visualizar datos de alta dimensión. Desarrollado por Laurens van der Maaten y Geoffrey Hinton, este método estadístico permite a investigadores y investigadores y profesionales del aprendizaje automático proyectar conjuntos de datos complejos con cientos o miles de dimensiones en un espacio bidimensional o tridimensional. A diferencia de a diferencia de los métodos lineales, el t-SNE destaca por preservar la estructura local de los datos, lo que lo hace excepcionalmente útil para tareas de visualización de datos en las que es necesario identificar la estructura local de los datos. tareas de visualización de datos en las que clusters y relaciones entre puntos de datos.

Cómo funciona t-SNE

El algoritmo funciona convirtiendo las similitudes entre puntos de datos en probabilidades conjuntas. En el espacio t-SNE mide la similitud entre puntos utilizando una distribución gaussiana, en la que los objetos similares tienen una alta probabilidad de ser elegidos como vecinos. objetos similares tienen una alta probabilidad de ser elegidos como vecinos. A continuación, intenta asignar estos puntos a un espacio de menor dimensión (la "incrustación") minimizando la divergencia entre la distribución de probabilidad de los datos originales y la de los datos incrustados. de los datos originales y la de los datos incrustados. Este proceso se basa en gran medida en principios del aprendizaje no supervisado, ya que encuentra patrones sin necesidad de resultados etiquetados.

Un aspecto crítico del t-SNE es su capacidad para manejar el "problema de la aglomeración" en la visualización. Al utilizar una t de Student de cola gruesa en el mapa de dimensiones inferiores, evita que los puntos se superpongan con demasiada densidad, lo que garantiza que los distintos conglomerados sigan siendo visualmente visualmente.

Aplicaciones en IA y ML

La visualización de datos de alta dimensión es un paso fundamental en el ciclo de desarrollo de la IA. ciclo de vida del desarrollo de la IA. t-SNE proporciona intuición sobre cómo un modelo ve los datos en varios dominios.

  • Análisis de características de visión por ordenador: En Computer Vision (CV), los ingenieros suelen utilizar t-SNE para interpretar lo que modelo de aprendizaje profundo (Deep Learning, DL). Por ejemplo, en ejemplo, extrayendo los vectores de características (embeddings) de la columna vertebral de un modelo de YOLO11 justo antes de la cabeza de detección final, t-SNE puede proyectar estos vectores en un plano 2D. Si el modelo funciona bien, las imágenes de objetos similares (por ejemplo, coches peatones, ciclistas) se agruparán en clústeres distintos, lo que verificará la eficacia del proceso de extracción de características. proceso de extracción de características.
  • Procesamiento del Lenguaje Natural (PLN): t-SNE se utiliza mucho para visualizar como las generadas por los modelos GloVe o Transformer. En estas visualizaciones, las palabras con significados semánticos similares, como "rey" y "reina", aparecen como vecinas cercanas. Esto ayuda a los a los investigadores a comprender las relaciones semánticas Procesamiento del Lenguaje Natural (PLN) y diagnosticar posibles sesgos en los datos de entrenamiento.

t-SNE frente a técnicas afines

Es importante distinguir t-SNE de otros métodos de reducción de la dimensionalidad, ya que sirven a diferentes propósitos en en un proceso de aprendizaje automático.

  • Análisis de componentes principales (ACP): PCA es una técnica lineal que se centra en preservar la varianza global de los datos. Aunque el PCA es más rápido y determinista desde el punto de vista informático, a menudo no capta las relaciones complejas y no lineales. a menudo no capta las relaciones complejas y no lineales. Un flujo de trabajo común implica el uso de PCA para reducir los datos brutos a a 30-50 dimensiones, seguido de t-SNE para la visualización final. Este enfoque híbrido reduce el ruido y carga computacional.
  • Autocodificadores: Un autocodificador es un tipo de red neuronal entrenada para comprimir y reconstruir datos. Mientras que los autocodificadores pueden aprender representaciones no lineales, t-SNE está optimizado específicamente para el trazado y la inspección visual en lugar de la compresión de datos para su almacenamiento o transmisión.

Ejemplo de implementación Python

El siguiente ejemplo muestra cómo utilizar la popular biblioteca biblioteca Scikit-learn para visualizar datos de alta dimensión. Este fragmento genera conglomerados sintéticos y los proyecta en un espacio 2D utilizando t-SNE.

import matplotlib.pyplot as plt
from sklearn.datasets import make_blobs
from sklearn.manifold import TSNE

# Generate synthetic high-dimensional data (100 samples, 50 features)
X, y = make_blobs(n_samples=100, n_features=50, centers=3, random_state=42)

# Apply t-SNE to reduce features from 50 to 2 dimensions
# Perplexity relates to the number of nearest neighbors to consider
tsne = TSNE(n_components=2, perplexity=30, random_state=42)
X_embedded = tsne.fit_transform(X)

# Visualize the projected 2D data
plt.scatter(X_embedded[:, 0], X_embedded[:, 1], c=y)
plt.title("t-SNE Visualization of Features")
plt.show()

Limitaciones y buenas prácticas

Aunque potente, t-SNE requiere un de los hiperparámetros. El parámetro de "perplejidad" "perplejidad", que equilibra la atención entre los aspectos locales y globales de los datos, puede alterar drásticamente el gráfico resultante. puede alterar drásticamente el gráfico resultante. Además, el algoritmo es costoso desde el punto de vista informático (complejidad O(N²)), lo que lo hace lento para conjuntos de datos muy grandes en comparación con los métodos de proyección simples.

Las distancias entre conglomerados separados en un gráfico t-SNE no representan necesariamente distancias físicas exactas en el espacio original. en el espacio original, sino que indican principalmente que los conglomerados son distintos. Para la exploración interactiva de incrustaciones herramientas como TensorFlow Embedding Projector se utilizan a menudo entrenamiento de modelos. A medida que la investigación en IA avanza hacia YOLO26 y y otras arquitecturas de extremo a extremo, la interpretación de estos espacios de alta dimensión sigue siendo una habilidad crítica para la validación y la prueba de modelos. validación y prueba de modelos.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora