Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Unidade de Processamento Neural (NPU)

Saiba como uma Unidade de Processamento Neural (NPU) acelera a IA. Descubra como implementar Ultralytics em NPUs para uma computação de ponta e inferência eficientes e de baixo consumo energético.

Uma Unidade de Processamento Neural (NPU) é um circuito de hardware especializado, concebido especificamente para acelerar a execução de algoritmos de inteligência artificial e aprendizagem automática. Ao contrário dos processadores de uso geral, as NPUs são concebidas com uma arquitetura que lida nativamente com as complexas operações matriciais paralelas essenciais aos modelos de aprendizagem profunda. Ao executar estes cálculos com extrema eficiência, uma NPU reduz drasticamente o consumo de energia, melhorando significativamente a latência de inferência. Isto torna-as um componente essencial dos telemóveis, computadores portáteis e dispositivos IoT especializados modernos, onde a implementação eficiente de modelos complexos sem um rápido esgotamento da bateria é fundamental.

NPU em comparação com outros processadores

Para compreender o valor de uma NPU, é útil distingui-la de outros aceleradores de hardware comuns no panorama da IA:

  • Unidade Central de Processamento (CPU): O «cérebro» de uso geral de um computador. Embora sejam capazes de executar código de aprendizagem automática, as CPUs processam as tarefas sequencialmente, o que as torna lentas e ineficientes para a multiplicação de matrizes intensiva exigida pelos modelos de visão modernos.
  • Unidade de Processamento Gráfico (GPU): Concebidas para o processamento paralelo, as GPUs são excelentes no tratamento de cargas de trabalho massivas de aprendizagem profunda. No entanto, consomem bastante energia e geram um calor considerável, o que as torna mais adequadas para o treino na nuvem do que para a computação de ponta alimentada a bateria.
  • UnidadeTensor (TPU): Um circuito integrado específico para aplicações, desenvolvido pela Google a aprendizagem automática. Embora semelhante em conceito a uma NPU, as TPUs estão geralmente associadas a enormes racks de servidores de computação em nuvem, enquanto as NPUs são normalmente integradas diretamente em System-on-Chips (SoCs) destinados ao consumidor.

Aplicações práticas das NPUs

O avanço da NPU permitiu executar inteligência artificial (IA) diretamente nos dispositivos dos utilizadores, sem depender de uma ligação constante à nuvem.

  • Smartphones e visão móvel: Os dispositivos móveis modernos utilizam intensivamente as NPUs internas, como o Apple Neural Engine ou a Qualcomm Hexagon NPU, para alimentar a fotografia computacional, o reconhecimento facial em tempo real e a tradução de texto local. Ao processarem os dados de imagem no próprio dispositivo, preservam a autonomia da bateria e garantem a privacidade dos dados.
  • Portáteis com IA: Os processadores avançados para PC incluem agora NPUs integradas para gerir tarefas em segundo plano, como o desfoque de fundo e a correção do olhar durante videoconferências sem sobrecarregar a CPU principal, permitindo aos utilizadores realizar várias tarefas em simultâneo com facilidade.
  • Implementações de IA na Periferia: As câmaras de vigilância inteligentes e a robótica utilizam NPUs especializadas, como a Google Edge TPU Intel incorporado, para realizar a deteção instantânea de objetos diretamente na fonte. Isto elimina os estrangulamentos de largura de banda e permite a tomada de decisões em frações de segundo.

Utilização de NPUs com Ultralytics YOLO

Para os programadores que pretendem tirar partido das NPUs, a implementação de modelos de visão computacional tornou-se incrivelmente simples. Utilizando o poderoso modelo Ultralytics , pode exportar a sua rede treinada para formatos otimizados para vários aceleradores de hardware. Para agilizar todo este ciclo de vida, a Ultralytics fornece ferramentas robustas para a gestão de conjuntos de dados na nuvem, anotação automatizada e implementação de modelos otimizados em praticamente qualquer ambiente de implementação de modelos.

Ao trabalhar localmente, pode utilizar integrações de frameworks como ONNX , PyTorch ou TensorFlow para direcionar a NPU. Segue-se um breve Python que demonstra como exportar um YOLO para o OpenVINO , o qual delega de forma integrada as cargas de trabalho de computação às Intel para uma inferência em tempo real acelerada.

from ultralytics import YOLO

# Load the highly recommended Ultralytics YOLO26 Nano model
model = YOLO("yolo26n.pt")

# Export to OpenVINO with int8 quantization for optimal NPU performance
model.export(format="openvino", int8=True)

# Run highly efficient, accelerated inference on the edge device
results = model("path/to/environment_image.jpg")

Vamos construir juntos o futuro da IA!

Comece sua jornada com o futuro do aprendizado de máquina