Glosario

GPU (unidad de procesamiento gráfico)

Descubra cómo las GPU revolucionan la IA y el aprendizaje automático acelerando el aprendizaje profundo, optimizando los flujos de trabajo y permitiendo aplicaciones en el mundo real.

Una unidad de procesamiento gráfico (GPU) es un circuito electrónico especializado diseñado inicialmente para acelerar la creación y renderización de imágenes, vídeo y animaciones. Aunque las GPU se originaron en las industrias del diseño gráfico y los videojuegos, su arquitectura única las ha convertido en herramientas indispensables en la Inteligencia Artificial (IA) y el Aprendizaje Automático(AM) modernos. Las GPU poseen miles de núcleos de procesamiento que funcionan en paralelo, lo que les permite manejar grandes cantidades de cálculos de forma simultánea. Esta capacidad es excepcionalmente adecuada para las tareas computacionalmente exigentes que se encuentran en los algoritmos de aprendizaje profundo, lo que permite un entrenamiento más rápido de los modelos y una inferencia eficiente en tiempo real. Entender la evolución de la GPU proporciona contexto para su papel actual en la IA.

Importancia en la IA y el aprendizaje automático

La capacidad de procesamiento paralelo de las GPU es uno de los principales catalizadores de los recientes avances en IA. Entrenar redes neuronales profundas implica procesar enormes conjuntos de datos y realizar innumerables operaciones matemáticas complejas, como multiplicaciones de matrices. Las GPU destacan en estas operaciones, lo que reduce drásticamente el tiempo necesario para entrenar los modelos en comparación con las unidades centrales de procesamiento (CPU) tradicionales. Esta aceleración permite a los investigadores y desarrolladores del campo de la IA iterar con mayor rapidez, experimentar con modelos más grandes y complejos y lograr mayor precisión en tareas como la detección de objetos y la segmentación de imágenes.

He aquí dos ejemplos de GPU en aplicaciones de IA/ML del mundo real:

  1. Detección de objetos en tiempo real: Los modelos YOLO de Ultralytics, conocidos por su velocidad y eficiencia, dependen en gran medida de las GPU para realizar la detección de objetos en tiempo real en aplicaciones como la conducción autónoma, la vigilancia de seguridad(mejora de los sistemas de seguridad) y la robótica. La naturaleza paralela de las GPU permite a estos modelos procesar fotogramas de vídeo con rapidez e identificar con precisión múltiples objetos de forma simultánea. Explore las diversas aplicaciones de YOLO11 que permite la aceleración en la GPU.
  2. Entrenamiento de grandes modelos: El entrenamiento de grandes modelos lingüísticos (LLM) o de complejos modelos de visión por ordenador suele requerir una potencia computacional significativa, a la que se accede con frecuencia a través de plataformas de computación en la nube. Servicios como Ultralytics HUB Cloud Training aprovechan los potentes clústeres de GPU de proveedores como AWS, Google Cloud y Azure para entrenar modelos en vastos conjuntos de datos para tareas que van desde el procesamiento del lenguaje natural (PLN) hasta el análisis avanzado de imágenes médicas.

Principales diferencias con las CPU y las TPU

Aunque las GPU, las CPU y las unidades de procesamiento de sensores (TPU ) son todos tipos de procesadores, tienen diferentes puntos fuertes y están optimizados para diferentes tareas:

  • CPU (Unidad Central de Procesamiento): Diseñada para la informática de propósito general, destaca en tareas secuenciales y en la gestión de operaciones del sistema. Las CPU tienen unos pocos núcleos potentes optimizados para una baja latencia. Ver un resumen de CPU vs GPU.
  • GPU (Unidad de procesamiento gráfico): Optimizada para operaciones paralelas con miles de núcleos más simples. Ideal para tareas que pueden dividirse y procesarse simultáneamente, como la renderización de gráficos y el entrenamiento de modelos de aprendizaje profundo. El rendimiento medido a menudo implica métricas como FLOPS.
  • TPU (Unidad de procesamiento tensorial): Circuito integrado específico de la aplicación (ASIC) diseñado a medida por Google y creado específicamente para acelerar las cargas de trabajo de aprendizaje automático mediante el marco TensorFlow. Están altamente optimizados para las operaciones matriciales a gran escala habituales en las redes neuronales. Más información sobre la TPU de Google.

Las GPU ofrecen un equilibrio entre alto rendimiento para tareas de procesamiento paralelo y versatilidad para diversas aplicaciones, lo que las convierte en una opción popular para muchas cargas de trabajo de inteligencia artificial y alta computación (HPC).

Ecosistema y uso

La adopción generalizada de las GPU en la IA está respaldada por sólidos ecosistemas de software. Grandes fabricantes como NVIDIA y AMD proporcionan GPU adecuadas para tareas de IA. La plataforma CUDA (Compute Unified Device Architecture) de NVIDIA es una plataforma de cálculo paralelo y un modelo de programación muy utilizado para las GPU NVIDIA. Los marcos de aprendizaje profundo como PyTorch y TensorFlow están optimizados para aprovechar la aceleración de la GPU. La configuración de entornos para el desarrollo acelerado en la GPU puede agilizarse utilizando herramientas de contenedorización como Docker; consulte la guía Ultralytics Docker Quickstart para obtener instrucciones de configuración. El despliegue eficiente de modelos a menudo implica la optimización de los modelos para que se ejecuten eficazmente en el hardware de GPU de destino. Explore varias soluciones de Ultralytics que aprovechan la potencia de la GPU.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles