¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glosario

CPU

Explore el papel vital de la CPU en la IA y el aprendizaje automático. Conozca su uso en la preparación de datos, la inferencia y cómo se compara con las GPU/TPU.

Una Unidad Central de Procesamiento (CPU) es el componente principal de un ordenador que ejecuta instrucciones y realiza la mayor parte del procesamiento dentro de un dispositivo informático. A menudo llamado el "cerebro" del ordenador, su función principal es llevar a cabo las secuencias de instrucciones que componen un programa informático. En el contexto del aprendizaje automático (ML) y la inteligencia artificial (IA), la CPU es un elemento fundamental que gestiona todo el sistema, maneja la preparación de los datos y ejecuta tareas que no son adecuadas para hardware especializado. Aunque puede que no realice la mayor parte de los cálculos pesados durante el entrenamiento del modelo, su función es indispensable para un flujo de trabajo completo de IA.

CPU vs. GPU y TPU

La principal diferencia entre las CPU, las GPU y las TPU radica en su arquitectura y propósito previsto:

  • CPU: Un procesador de propósito general optimizado para la ejecución de baja latencia de tareas secuenciales. Tiene unos pocos núcleos potentes, lo que lo hace ideal para gestionar el sistema operativo, el flujo de control y una amplia variedad de cálculos. Los principales fabricantes son Intel y AMD.
  • GPU: Originalmente diseñadas para gráficos, las GPU ahora se utilizan ampliamente para la IA debido a su arquitectura. Cuentan con miles de núcleos más pequeños optimizados para el procesamiento paralelo de grandes bloques de datos, como las matrices utilizadas en el aprendizaje profundo. Este paralelismo acelera significativamente el entrenamiento de modelos como Ultralytics YOLO11.
  • TPU: El hardware personalizado de Google, un circuito integrado específico de la aplicación (ASIC), está diseñado específicamente para acelerar los cálculos de tensores utilizados en las redes neuronales. Está altamente optimizado para marcos como TensorFlow y PyTorch en plataformas en la nube.

Incluso en sistemas que dependen en gran medida de las GPU o TPU para el entrenamiento de modelos, la CPU gestiona el sistema general, prepara los datos para el acelerador y se encarga de las partes del flujo de trabajo que no están optimizadas para la computación paralela. Comprender estas compensaciones es crucial para una implementación de modelos eficiente.

Ejemplos de IA/ML en el mundo real utilizando CPU

Si bien el hardware especializado destaca en el entrenamiento a gran escala, las CPU siguen siendo vitales para muchas tareas de IA, especialmente en entornos con limitaciones específicas.

  1. Preprocesamiento del Procesamiento del Lenguaje Natural (PNL): Antes de que los datos de texto se introduzcan en un modelo para el entrenamiento o la inferencia, deben ser preprocesados. Tareas como la tokenización, donde el texto se divide en unidades más pequeñas, son fundamentales en el PNL. Bibliotecas como Tokenizers de Hugging Face a menudo realizan estas operaciones secuenciales de manera eficiente en la CPU antes de que los datos procesados se envíen a una GPU.
  2. Inferencia en Dispositivos Perimetrales: Muchas aplicaciones de Edge AI implementan modelos ML en dispositivos con potencia y recursos computacionales limitados, como una Raspberry Pi o dispositivos basados en la arquitectura ARM. En estos escenarios, la inferencia a menudo se ejecuta directamente en la CPU del dispositivo. Se utilizan bibliotecas optimizadas como TensorFlow Lite o el kit de herramientas OpenVINO para lograr un rendimiento aceptable para tareas como la detección de objetos básica o la detección de palabras clave. La gestión de estas implementaciones se puede simplificar a través de plataformas como Ultralytics HUB y herramientas de contenedorización como Docker.

Comprender las capacidades y limitaciones de la CPU es crucial para diseñar y optimizar sistemas de IA de extremo a extremo, desde el manejo de la recopilación de datos hasta el logro de un despliegue eficiente en diversas plataformas de hardware. Este es un aspecto clave de una estrategia de MLOps exitosa.

Únete a la comunidad de Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora
Enlace copiado al portapapeles