Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

CPU

Explora el papel fundamental de la CPU la IA. Aprende a optimizar el preprocesamiento y posprocesamiento de datos, y ejecuta hoy mismo la inferencia Ultralytics en dispositivos periféricos.

CPU unidad central de procesamiento (CPU) es el componente principal de un ordenador que actúa como su «cerebro», responsable de interpretar y ejecutar instrucciones del hardware y el software. En el contexto de la inteligencia artificial (IA), la CPU desempeña un papel fundamental en el manejo de datos, la organización del sistema y la ejecución de inferencias, especialmente en dispositivos periféricos donde la eficiencia energética es fundamental. Aunque el hardware especializado, como las GPU, se asocia a menudo con el trabajo pesado del entrenamiento de modelos de aprendizaje profundo, la CPU indispensable para el conjunto del proceso de aprendizaje automático (ML).

El papel de las CPU en los flujos de trabajo de IA

Aunque las GPU son famosas por su enorme paralelismo durante el entrenamiento, la CPU el caballo de batalla de muchas etapas esenciales del ciclo de vida de la visión por ordenador (CV). Su arquitectura, normalmente basada en diseños x86 (Intel, AMD) o ARM, está optimizada para el procesamiento secuencial y el control lógico complejo .

  • Preprocesamiento de datos: antes de que una red neuronal pueda aprender, es necesario preparar los datos. Las CPU destacan en tareas como la carga de archivos, la limpieza de datos y las transformaciones complejas utilizando bibliotecas como NumPy y OpenCV.
  • Inferencia periférica: para la implementación en el mundo real, no siempre es viable ejecutar modelos en servidores masivos. Las CPU permiten una implementación eficiente de modelos en hardware de consumo, como la ejecución Ultralytics en un ordenador portátil o una Raspberry Pi.
  • Postprocesamiento: después de que un modelo genera probabilidades sin procesar, la CPU encargarse de la lógica final, como la supresión no máxima (NMS) en la detección de objetos, para filtrar las predicciones duplicadas y refinar los resultados.

CPU a GPU a TPU

Comprender el panorama del hardware es fundamental para optimizar las operaciones de aprendizaje automático (MLOps). Estos procesadores difieren significativamente en su arquitectura y casos de uso ideales.

  • CPU: Diseñada para ofrecer versatilidad y lógica compleja. Cuenta con unos pocos núcleos potentes que procesan las tareas de forma secuencial. Es ideal para el aumento de datos, la gestión de procesos y la inferencia de baja latencia en lotes pequeños.
  • GPU unidad de procesamiento gráfico): Originalmente destinadas a los gráficos, las GPU tienen miles de núcleos más pequeños diseñados para el procesamiento paralelo. Son el estándar para el entrenamiento de modelos porque pueden realizar multiplicaciones matriciales mucho más rápido que una CPU.
  • TPU unidadTensor ): Circuito especializado (ASIC) desarrollado por Google específicamente para tensor . Aunque es muy eficiente para cargas de trabajo específicas, carece de la flexibilidad de uso general de una CPU.

Aplicaciones en el mundo real

Las CPU suelen ser el hardware elegido para aplicaciones en las que el coste, la disponibilidad y el consumo energético superan la necesidad de un rendimiento bruto masivo.

  1. Cámaras de seguridad inteligentes: en los sistemas de alarma de seguridad, las cámaras suelen procesar las señales de vídeo de forma local. Un modelo de detección de objetos CPU puede identificar a una persona o un vehículo y activar una alerta sin enviar el vídeo a la nube, lo que preserva el ancho de banda y la privacidad del usuario.
  2. Automatización industrial: En las fábricas, los sistemas de mantenimiento predictivo utilizan CPU para supervisar los datos de los sensores de la maquinaria. Estos sistemas analizan las vibraciones o los picos de temperatura en tiempo real para predecir fallos, lo que garantiza una automatización de la fabricación fluida sin necesidad de costosos GPU .

Ejecución de inferencias en CPU Ultralytics

Los desarrolladores suelen probar los modelos en CPU para verificar la compatibilidad con entornos informáticos sin servidor o dispositivos de bajo consumo . La Ultralytics permite orientar fácilmente la CPU, lo que garantiza que la aplicación se ejecute en cualquier lugar.

El siguiente ejemplo muestra cómo cargar un modelo ligero y ejecutar la inferencia específicamente en la CPU:

from ultralytics import YOLO

# Load the lightweight YOLO26 nano model
# Smaller models are optimized for faster CPU execution
model = YOLO("yolo26n.pt")

# Run inference on an image, explicitly setting the device to 'cpu'
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")

# Print the detection results (bounding boxes)
print(results[0].boxes.xywh)

Para mejorar aún más el rendimiento en Intel , los desarrolladores pueden exportar sus modelos a OpenVINO , que optimiza la estructura de la red neuronal específicamente para la arquitectura x86. Para gestionar conjuntos de datos y coordinar estas implementaciones, herramientas como la Ultralytics simplifican el flujo de trabajo desde la anotación hasta la ejecución en el borde .

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora