Visualización de datos
Transforme datos complejos de IA/ML en información práctica con potentes técnicas y herramientas de visualización. Más información en Ultralytics.
La visualización de datos es el proceso de traducir información a un contexto visual, como un mapa o un gráfico, para que
el cerebro humano pueda comprender los datos más fácilmente y extraer información de ellos. En el contexto de la
inteligencia artificial (IA) y el
aprendizaje automático (ML), esta práctica sirve como
un puente fundamental entre los complejos resultados numéricos y la interpretación práctica. Al convertir conjuntos de datos sin procesar,
arquitecturas de modelos y métricas de rendimiento en formatos visuales, los desarrolladores pueden descubrir patrones ocultos, identificar
correlaciones y comunicar eficazmente los resultados a las partes interesadas. Esta capacidad es esencial no solo para
presentar los resultados finales, sino también para cada etapa del proceso, ya que permite a los ingenieros depurar los modelos y a los usuarios confiar en
las decisiones automatizadas.
El papel de la visualización en el ciclo de vida del ML
Una visualización eficaz es indispensable a lo largo de todo el flujo de trabajo de ML, ya que actúa como herramienta de diagnóstico del
estado del modelo y la calidad de los datos.
-
Análisis exploratorio de datos (EDA): Antes de comenzar el entrenamiento, se utilizan técnicas de visualización para
comprender la estructura subyacente de un conjunto de datos. Los histogramas y los diagramas de dispersión ayudan a identificar
sesgos en los conjuntos de datos y desequilibrios en las clases que podrían distorsionar
el rendimiento del modelo. Bibliotecas como Matplotlib y Seaborn son estándar en el
Python para estas investigaciones iniciales durante el
preprocesamiento de datos.
-
Formación y supervisión de modelos: Durante la fase de formación, los ingenieros track métricas como
los valores de la función de pérdida y las tasas de aprendizaje.
La visualización de estas curvas en tiempo real mediante plataformas como
Weights & Biases permite detectar
de problemas como el sobreajuste o la explosión de
gradientes, ahorrando recursos computacionales.
-
Evaluación de modelos: El análisis posterior al entrenamiento suele basarse en la
matriz de confusión y
curva de características operativas del receptor (ROC)
para evaluar la precisión de la clasificación. En el caso de los datos de alta dimensión, se utilizan técnicas como
incrustación estocástica de vecinos distribuida (t-SNE)
reducen las dimensiones para visualizar cómo un modelo agrupa puntos de datos similares en el espacio de características.
-
Inferencia e interpretabilidad: Por último, la visualización de las predicciones del modelo -como dibujar
alrededor de los objetos detectados
verificación inmediata de las capacidades del sistema. Este es un componente esencial de la
de la Inteligencia Artificial Explicable (XAI).
transparente la toma de decisiones.
Aplicaciones en el mundo real
La visualización de datos transforma predicciones abstractas en aplicaciones tangibles en diversas industrias, mejorando la
utilidad de modelos como YOLO26.
-
IA en la asistencia sanitaria: En el diagnóstico médico
la visualización es fundamental. Los modelos de aprendizaje profundo analizan
datos de análisis de imágenes médicas, como resonancias magnéticas
o tomografías computarizadas, para identificar anomalías. Al superponer máscaras de segmentación de imágenes codificadas por colores
directamente sobre las
imágenes médicas, los sistemas de IA resaltan la ubicación y la forma exactas de los tumores. Esta ayuda visual permite a los radiólogos
realizar diagnósticos más rápidos y precisos, una ventaja destacada por el
Instituto Nacional de Imagen Biomédica y Bioingeniería.
-
Navegación autónoma: Los vehículos de conducción autónoma y la
AI en automoción se basan en la visualización
sensores. Los ingenieros utilizan herramientas de visualización 3D para generar nubes de puntos a partir de LiDAR y datos de cámaras. Al proyectar
proyectando las trayectorias previstas y los ID de seguimiento de objetos en una representación virtual de la carretera.
en una representación virtual de la carretera, los desarrolladores pueden verificar que el coche percibe correctamente a los peatones, otros vehículos y las señales de tráfico.
otros vehículos y las señales de tráfico. Empresas como NVIDIA Drive proporcionan
entornos de simulación específicos para visualizar estos complejos escenarios autónomos.
Visualización de predicciones con Ultralytics
En ultralytics El paquete simplifica la visualización de
visión por ordenador (CV) tareas. El siguiente
ejemplo muestra cómo cargar un YOLO11 modelo, ejecutar
la inferencia en una imagen y mostrar los resultados visuales con cuadros delimitadores y etiquetas utilizando
OpenCV.
import cv2
from ultralytics import YOLO
# Load a pre-trained YOLO model
model = YOLO("yolo11n.pt")
# Run inference on a remote image URL
results = model("https://ultralytics.com/images/bus.jpg")
# Visualize the results by plotting detections on the image
for result in results:
# plot() returns a BGR numpy array of the image with drawn boxes
im_array = result.plot()
# Display the image (requires a local GUI environment)
cv2.imshow("Ultralytics Visualization", im_array)
cv2.waitKey(0)
cv2.destroyAllWindows()
Distinción de términos relacionados
-
Análisis de datos: Se trata del
campo más amplio de la inspección, limpieza y modelización de datos para descubrir información útil. La visualización de datos es una
herramienta o método específico utilizado en el análisis para presentar los resultados. Puede explorar las
las distinciones en la guía de IBM
Análisis de datos vs. Visualización de datos.
-
Cuadro de mandos: Mientras que
relacionados, los cuadros de mando implican la agregación de múltiples visualizaciones en una única interfaz para la supervisión en tiempo real.
Herramientas como Tableau o Microsoft Power BI se utilizan a menudo para crear cuadros de mando
track alto nivel derivados de modelos de IA, como el recuento de clientes o las tasas de defectos de fabricación.
de fabricación.
-
Minería de datos: este proceso se centra en
descubrir patrones en grandes conjuntos de datos utilizando métodos en la intersección del aprendizaje automático, la estadística y los
sistemas de bases de datos. Mientras que la minería extrae la información, la visualización es el mecanismo utilizado para mostrar los
patrones descubiertos a los usuarios humanos.