Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Unidad de procesamiento neuronal (NPU)

Descubre cómo una unidad de procesamiento neuronal (NPU) acelera la IA. Descubre cómo implementar Ultralytics en NPU para lograr un procesamiento periférico y una inferencia eficientes y de bajo consumo.

Una unidad de procesamiento neuronal (NPU) es un circuito de hardware especializado diseñado específicamente para acelerar la ejecución de algoritmos de inteligencia artificial y aprendizaje automático. A diferencia de los procesadores de uso general, las NPU están diseñadas con una arquitectura que gestiona de forma nativa las complejas operaciones matriciales paralelas fundamentales para los modelos de aprendizaje profundo. Al ejecutar estos cálculos con una eficiencia extrema, una NPU reduce drásticamente el consumo de energía al tiempo que mejora significativamente la latencia de inferencia. Esto las convierte en un componente esencial de los teléfonos móviles, ordenadores portátiles y dispositivos IoT especializados modernos, en los que es fundamental implementar modelos complejos de manera eficiente sin que se agote rápidamente la batería.

La NPU frente a otros procesadores

Para comprender el valor de una NPU, conviene distinguirla de otros aceleradores de hardware habituales en el ámbito de la IA :

  • Unidad Central de Procesamiento (CPU): El «cerebro» de uso general de un ordenador. Aunque son capaces de ejecutar código de aprendizaje automático, las CPU procesan las tareas de forma secuencial, lo que las hace lentas e ineficientes para las intensas multiplicaciones matriciales que requieren los modelos de visión modernos.
  • Unidad de procesamiento gráfico (GPU): Diseñadas para el procesamiento paralelo, las GPU son excepcionales a la hora de gestionar grandes cargas de trabajo de aprendizaje profundo. Sin embargo, consumen mucha energía y generan un calor considerable, por lo que resultan más adecuadas para el entrenamiento en la nube que para la computación periférica alimentada por batería.
  • UnidadTensor (TPU): Un circuito integrado específico para aplicaciones desarrollado por Google el aprendizaje automático. Aunque su concepto es similar al de una NPU, las TPU suelen asociarse con enormes baterías de servidores de computación en la nube, mientras que las NPU suelen integrarse directamente en los sistemas en chip (SoC) de consumo.

Aplicaciones prácticas de las NPU

El auge de la NPU ha permitido ejecutar inteligencia artificial (IA) directamente en los dispositivos de los usuarios sin necesidad de una conexión constante a la nube.

  • Teléfonos inteligentes y visión móvil: Los dispositivos móviles modernos aprovechan al máximo las NPU internas, como el Neural Engine de Apple o la NPU Hexagon de Qualcomm, para potenciar la fotografía computacional, el reconocimiento facial en tiempo real y la traducción de texto local. Al procesar los datos de imagen en el propio dispositivo, ahorran batería y garantizan la privacidad de los datos.
  • Portátiles con IA: Los procesadores avanzados para PC ahora incorporan NPU integradas para gestionar tareas en segundo plano, como el desenfoque del fondo y la corrección de la mirada durante las videoconferencias sin sobrecargar la CPU principal, lo que permite a los usuarios realizar múltiples tareas con fluidez.
  • Implementaciones de IA en el borde: Las cámaras de vigilancia inteligentes y la robótica utilizan NPU especializadas, como la Google Edge TPU Intel integrado Intel , para realizar la detección instantánea de objetos directamente en el origen. Esto elimina los cuellos de botella en el ancho de banda y permite tomar decisiones en fracciones de segundo.

Uso de NPU con Ultralytics YOLO

Para los desarrolladores que deseen aprovechar las NPU, la implementación de modelos de visión artificial se ha vuelto increíblemente sencilla. Mediante el potente modelo Ultralytics , puedes exportar tu red entrenada a formatos optimizados para diversos aceleradores de hardware. Para optimizar todo este ciclo de vida, la Ultralytics ofrece herramientas robustas para la gestión de conjuntos de datos en la nube, la anotación automatizada y la implementación de modelos optimizados en prácticamente cualquier entorno de implementación de modelos.

Cuando se trabaja en un entorno local, se pueden utilizar integraciones de marcos como ONNX , PyTorch o TensorFlow para aprovechar la NPU. A continuación se muestra un breve Python que ilustra cómo exportar un YOLO al OpenVINO , el cual delega de forma fluida las cargas de trabajo de cálculo a Intel para una inferencia en tiempo real acelerada.

from ultralytics import YOLO

# Load the highly recommended Ultralytics YOLO26 Nano model
model = YOLO("yolo26n.pt")

# Export to OpenVINO with int8 quantization for optimal NPU performance
model.export(format="openvino", int8=True)

# Run highly efficient, accelerated inference on the edge device
results = model("path/to/environment_image.jpg")

¡Construyamos juntos el futuro de la IA!

Comience su viaje con el futuro del aprendizaje automático