Glosario

TPU (Unidad de procesamiento de sensores)

Descubra cómo las unidades de procesamiento tensorial (TPU) aceleran las tareas de aprendizaje automático, como el entrenamiento, la inferencia y la detección de objetos, con una eficiencia inigualable.

Una unidad de procesamiento tensorial (TPU) es un acelerador de aprendizaje automático personalizado desarrollado por Google específicamente para cargas de trabajo de redes neuronales. Estos procesadores especializados, un tipo de circuito integrado de aplicación específica (ASIC), están diseñados para acelerar y ampliar drásticamente las operaciones de aprendizaje automático, en particular para tareas de inferencia y entrenamiento. Las TPU están diseñadas para manejar los complejos cálculos matemáticos que intervienen en la inteligencia artificial (IA) y ofrecen mejoras significativas de rendimiento con respecto a las unidades centrales de procesamiento (CPU) y, a menudo, a las unidades de procesamiento gráfico (GPU) para determinados tipos de modelos de aprendizaje automático. Son especialmente eficaces para los cálculos a gran escala habituales en el aprendizaje profundo.

¿Qué es un TPU?

Una TPU se construye desde cero para responder a las exigencias específicas del aprendizaje automático. A diferencia de los procesadores de propósito general, como las CPU o incluso las GPU, que manejan una gama más amplia de tareas, las TPU están diseñadas para sobresalir en cálculos de tensor, las operaciones matemáticas fundamentales de las redes neuronales (NN). Los tensores son matrices multidimensionales que representan los datos en los modelos de ML, y las TPU están optimizadas para realizar multiplicaciones matriciales a gran escala y otras operaciones de álgebra tensorial a alta velocidad y con eficiencia energética. Esta especialización permite a las TPU ejecutar tareas de ML mucho más rápidamente que las CPU y, en muchos casos, de forma más eficiente que las GPU, especialmente cuando se trabaja con marcos de trabajo como TensorFlow, para el que se optimizaron inicialmente. También es compatible con otros marcos como PyTorch, lo que amplía sus posibilidades de uso. Puedes obtener más información sobre los detalles en la Introducción a Google Cloud TPU.

Aplicaciones de los TPU

Las TPU se utilizan de forma generalizada en diversas aplicaciones, especialmente en las que utilizan los servicios de Google y, cada vez más, en dominios más amplios de IA y ML accesibles a través de plataformas como Google Cloud. Entre las aplicaciones clave se incluyen:

  • Entrenamiento de modelos a gran escala: Las TPU sobresalen en el entrenamiento de modelos masivos de aprendizaje profundo que requieren una inmensa potencia computacional y configuraciones de entrenamiento distribuidas. Por ejemplo, Google utiliza las TPU internamente para entrenar modelos sofisticados para servicios como Google Search y Google Translate, manejando enormes conjuntos de datos y arquitecturas complejas.
  • Inferencia de grandes volúmenes: Para aplicaciones que requieren una inferencia rápida y eficiente sobre grandes volúmenes de datos, las TPU proporcionan una aceleración significativa. Esto es crucial para servicios en tiempo real como el procesamiento del lenguaje natural (PLN ) en chatbots o tareas de visión por ordenador (CV) como la detección de objetos a gran escala en Google Fotos.
  • Investigación y desarrollo: Los investigadores aprovechan las TPU a través de plataformas en la nube y entornos como Kaggle (consulte la guía de integración de Ultralytics en Kaggle) para acelerar experimentos y desarrollar modelos de IA punteros, como los utilizados en el análisis de imágenes médicas o las simulaciones científicas.
  • Computación Edge: Las versiones más pequeñas, conocidas como Edge TPU, llevan las capacidades de inferencia ML directamente a los dispositivos, lo que permite aplicaciones en IoT y robótica que requieren baja latencia y procesamiento fuera de línea. Más información sobre los principios de Edge Computing.

TPUs vs GPUs vs CPUs

Aunque las TPU, las GPU y las CPU pueden procesar cálculos, están diseñadas para fines distintos y destacan en tareas diferentes:

  • CPU (Unidad Central de Proceso): El cerebro de un ordenador estándar, diseñado para tareas informáticas de propósito general. Maneja las operaciones del sistema, ejecuta las instrucciones del programa de forma secuencial y gestiona diversas cargas de trabajo, pero es relativamente lenta para los cálculos paralelos masivos necesarios en el aprendizaje profundo. Más información sobre la comparación entre CPU y GPU.
  • GPU (Unidad de Procesamiento Gráfico): Diseñadas originalmente para renderizar gráficos, las GPU cuentan con miles de núcleos optimizados para el procesamiento paralelo. Esto las hace muy eficaces para entrenar y ejecutar muchos modelos de ML, ofreciendo un buen equilibrio entre rendimiento y flexibilidad en diversas tareas como la detección de objetos con los modelos YOLO de Ultralytics. Entre los principales proveedores se encuentran NVIDIA y AMD.
  • TPU (Unidad de Procesamiento Tensorial): Diseñada específicamente como procesador de matrices para cargas de trabajo de redes neuronales. Las TPU ofrecen el máximo rendimiento y eficiencia energética para operaciones tensoriales a gran escala, especialmente dentro del ecosistema de Google(TensorFlow, PyTorch en Google Cloud). Puede que sean menos flexibles que las GPU para la computación paralela general, pero pueden ofrecer ventajas sustanciales en cuanto a coste y velocidad para tareas específicas de ML a gran escala alojadas en plataformas como Google Cloud Platform.

En resumen, las TPU representan un avance significativo en hardware diseñado específicamente para las exigencias del aprendizaje automático moderno, ya que ofrecen un mayor rendimiento y eficiencia para aplicaciones de IA específicas, en particular trabajos de formación e inferencia a gran escala. Complementan a otros aceleradores como las GPU, proporcionando opciones en función de la carga de trabajo específica, la escala y el ecosistema de software. Puede explorar las opciones de formación, incluidos los recursos en la nube, a través de plataformas como Ultralytics HUB, que ofrece capacidades de formación y gestión de modelos racionalizadas. Para más información sobre las tendencias de la IA, visite el blog de Ultralytics.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles