Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

CPU

Explore el papel vital de CPU en la IA y el aprendizaje automático. Infórmate sobre su uso en la preparación de datos, la inferencia y su comparación con las GPU/TPU.

Una Unidad Central de ProcesoCPU) es el componente principal de un ordenador que actúa como su centro de control, ejecutando instrucciones y orquestando el flujo de datos a través del sistema. A menudo denominada el " CPU se encarga de tareas informáticas de propósito general, como ejecutar el sistema operativo y gestionar las operaciones de entrada y salida. y gestionar las operaciones de entrada y salida. En el contexto de la inteligencia artificial (IA) y aprendizaje automático, la CPU desempeña un papel papel fundamental. Aunque puede que no ofrezca el paralelismo masivo necesario para el formación de modelos, es fundamental para el preprocesamiento de datos, la gestión de la lógica del sistema y la ejecución de inferencias en dispositivos periféricos en los que el consumo energético y los costes de hardware son limitaciones. de hardware.

CPU frente a GPU y TPU

Comprender el panorama del hardware es esencial para optimizar las operaciones de aprendizaje automático (MLOps). La CPU difiere significativamente de aceleradores como GPUs y TPUs en arquitectura y uso previsto:

Papel en los flujos de trabajo de IA

Aunque las GPU suelen ser el centro de atención para el entrenamiento, la CPU sigue siendo indispensable durante todo el ciclo de vida de la IA.

  1. Preprocesamiento de datos: Antes de que un modelo pueda "ver" los datos, las imágenes o el texto deben ser cargados y transformarse. Operaciones como el cambio de tamaño, la normalización y la normalización y el aumento de datos la CPU mediante bibliotecas como NumPy y OpenCV. El procesamiento eficiente de CPU evita que GPU esté inactiva mientras espera los datos.
  2. Postprocesamiento: Después de que un modelo genere predicciones sin procesar, CPU suele realizar los cálculos finales. cálculos finales. Por ejemplo, en la detección de objetos la CPU ejecuta supresión no máxima (NMS) para para filtrar los recuadros superpuestos y conservar las detecciones más fiables.
  3. Inferencia de bordes: En muchos escenarios del mundo real, desplegar costosas GPU no es factible. Edge AI depende en gran medida de las CPU para ejecutar modelos ligeros en dispositivos como Raspberry Pi o teléfonos móviles. móviles.

Aplicaciones en el mundo real

Las CPU facilitan una amplia gama de aplicaciones en las que la versatilidad y la eficiencia energética se anteponen al rendimiento bruto. rendimiento bruto.

  • Sistemas de vigilancia inteligentes: Muchos sistemas de seguridad utilizan algoritmos de detección de movimiento CPU estándar. Al procesar los flujos de vídeo localmente en el dispositivo de grabación, el sistema puede activar alertas o iniciar la grabación sólo cuando se detecta actividad, lo que ahorra almacenamiento y ancho de banda sin necesidad de una GPU dedicada. grabación sólo cuando se detecta actividad, ahorrando almacenamiento y ancho de banda sin necesidad de una GPU dedicada.
  • IoT industrial (IIoT): En la fabricación los sistemas de mantenimiento predictivo suelen ejecutarse en las CPU integradas de los controladores industriales. Estos sistemas monitorizan los datos de los sensores (vibración, temperatura) en tiempo real en tiempo real para predecir fallos en la maquinaria mediante modelos ligeros de regresión o la automatización de la fabricación.

Ejecutar la inferencia en CPU

Los desarrolladores suelen utilizar CPU CPU para depurar, probar o desplegar modelos en entornos que carecen de hardware especializado. especializado. Frameworks como PyTorch permiten a los usuarios dirigirse explícitamente a la CPU. Además, la conversión de modelos a formatos como ONNX o utilizando el OpenVINO puede optimizar considerablemente la velocidad de inferencia en las CPU Intel .

El siguiente ejemplo muestra cómo forzar el Ultralytics YOLO11 para ejecutar la inferencia en la CPU. Este resulta especialmente útil para evaluar el rendimiento hardware estándar.

from ultralytics import YOLO

# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")

# Run inference on an image, explicitly setting the device to CPU
# This bypasses any available GPU to simulate an edge deployment environment
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")

# Display the detection results
results[0].show()

Utilización de la device="cpu" garantiza que el cálculo permanezca en el procesador central, permitiendo a los desarrolladores verificar la compatibilidad del modelo con informática sin servidor o dispositivos de de bajo consumo.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora