Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

GPU (unidad de procesamiento gráfico)

Learn how GPUs accelerate AI and Deep Learning. Discover the power of parallel computing for training Ultralytics YOLO26 models and optimizing real-time inference.

Una unidad de procesamiento gráfico (GPU) es un circuito electrónico especializado diseñado originalmente para acelerar la manipulación y creación de imágenes en un búfer de fotogramas para la salida de pantalla. Aunque sus orígenes se remontan al renderizado de gráficos por ordenador para juegos y visualización profesional, las GPU han evolucionado hasta convertirse en el motor fundamental de la inteligencia artificial (IA) moderna. A diferencia de un procesador estándar que utiliza unos pocos núcleos potentes para manejar tareas de forma secuencial, GPU se compone de miles de núcleos más pequeños y eficientes diseñados para manejar múltiples tareas simultáneamente. Esta capacidad, conocida como computación paralela, las hace excepcionalmente eficientes para las operaciones masivas de matrices y vectores que sustentan el aprendizaje profundo (DL) y las complejas redes neuronales (NN).

Aceleración de las cargas de trabajo de IA

La razón principal por la que las GPU son indispensables para el aprendizaje automático (ML) es su capacidad para realizar multiplicaciones matriciales a alta velocidad. Los marcos de aprendizaje profundo como PyTorch y TensorFlow están optimizados específicamente para aprovechar esta aceleración de hardware. Esto se traduce en una reducción significativa de los tiempos de entrenamiento de los modelos, lo que a menudo transforma lo que serían semanas de cálculo en un procesador estándar en horas en una GPU. El rendimiento computacional de estos dispositivos se mide normalmente en FLOPS (operaciones de coma flotante por segundo), una métrica crítica para evaluar la capacidad del hardware para manejar las rigurosas exigencias de modelos de última generación como YOLO26.

Distinciones de hardware: GPU vs. CPU vs. TPU

Para comprender el panorama del hardware, resulta útil distinguir la GPU otras unidades de procesamiento:

  • CPU Unidad Central de Procesamiento): El «cerebro» de uso general de un ordenador. Las CPU destacan en el procesamiento secuencial y en la ramificación lógica compleja , pero son menos eficientes para el paralelismo masivo que requiere el entrenamiento de IA a gran escala.
  • GPU unidad de procesamiento gráfico): el estándar del sector para el entrenamiento y la inferencia. Fabricantes líderes como NVIDIA utilizan ecosistemas de software como CUDA CUDA para permitir a los desarrolladores programar la GPU para computación de propósito general.
  • TPU unidadTensor ): Un circuito integrado específico para aplicaciones (ASIC) desarrollado específicamente para el aprendizaje automático de redes neuronales. Aunque son muy eficientes para tensor específicas, son menos versátiles que las GPU para tareas informáticas más amplias.

Aplicaciones en el mundo real

La implementación de GPU de alto rendimiento ha impulsado innovaciones en diversas industrias:

  • Vehículos autónomos: Los coches autónomos deben procesar gigabytes de datos procedentes de cámaras, radares y sensores LiDAR cada segundo. Las GPU permiten la inferencia en tiempo real, lo que permite al ordenador de a bordo del vehículo ejecutar modelos de detección de objetos que identifican peatones, señales de tráfico y obstáculos de forma instantánea.
  • Análisis de imágenes médicas: En el ámbito sanitario, las GPU aceleran el procesamiento de escáneres de alta resolución, como resonancias magnéticas y tomografías computarizadas. Permiten que sofisticados algoritmos de segmentación de imágenes delineen con precisión tumores u órganos, lo que ayuda a los radiólogos a realizar diagnósticos más rápidos y precisos sin depender únicamente de la inspección manual.

Entrenamiento con GPU

Al utilizar el ultralytics paquete, el uso de una GPU sencillo y muy recomendable para flujos de trabajo eficientes. La biblioteca admite la detección automática de dispositivos, pero los usuarios también pueden especificar explícitamente el dispositivo.

El siguiente ejemplo muestra cómo entrenar un modelo YOLO26 en la primera GPU disponible:

from ultralytics import YOLO

# Load the YOLO26n model
model = YOLO("yolo26n.pt")

# Train the model on the first available GPU (device=0)
# This significantly accelerates training compared to CPU usage
results = model.train(data="coco8.yaml", epochs=5, imgsz=640, device=0)

Implementación y optimización

Más allá del entrenamiento, las GPU desempeñan un papel crucial en la implementación de modelos. Para maximizar la eficiencia durante la inferencia, los modelos suelen convertirse a formatos optimizados como TensorRT, que reestructura la red neuronal para alinearla perfectamente con la GPU específica GPU , reduciendo así la latencia. Para los desarrolladores que no tienen acceso a hardware local de gama alta , la Ultralytics ofrece soluciones basadas en la nube para gestionar conjuntos de datos y entrenar modelos en potentes GPU remotos. Esta accesibilidad impulsa la innovación en Edge AI, permitiendo que las complejas tareas de visión por computadora (CV) en dispositivos más pequeños y eficientes energéticamente en el campo.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora