Saiba como uma Unidade de Processamento Neural (NPU) acelera a IA. Descubra como implementar Ultralytics em NPUs para uma computação de ponta e inferência eficientes e de baixo consumo energético.
Uma Unidade de Processamento Neural (NPU) é um circuito de hardware especializado, concebido especificamente para acelerar a execução de algoritmos de inteligência artificial e aprendizagem automática. Ao contrário dos processadores de uso geral, as NPUs são concebidas com uma arquitetura que lida nativamente com as complexas operações matriciais paralelas essenciais aos modelos de aprendizagem profunda. Ao executar estes cálculos com extrema eficiência, uma NPU reduz drasticamente o consumo de energia, melhorando significativamente a latência de inferência. Isto torna-as um componente essencial dos telemóveis, computadores portáteis e dispositivos IoT especializados modernos, onde a implementação eficiente de modelos complexos sem um rápido esgotamento da bateria é fundamental.
Para compreender o valor de uma NPU, é útil distingui-la de outros aceleradores de hardware comuns no panorama da IA:
O avanço da NPU permitiu executar inteligência artificial (IA) diretamente nos dispositivos dos utilizadores, sem depender de uma ligação constante à nuvem.
Para os programadores que pretendem tirar partido das NPUs, a implementação de modelos de visão computacional tornou-se incrivelmente simples. Utilizando o poderoso modelo Ultralytics , pode exportar a sua rede treinada para formatos otimizados para vários aceleradores de hardware. Para agilizar todo este ciclo de vida, a Ultralytics fornece ferramentas robustas para a gestão de conjuntos de dados na nuvem, anotação automatizada e implementação de modelos otimizados em praticamente qualquer ambiente de implementação de modelos.
Ao trabalhar localmente, pode utilizar integrações de frameworks como ONNX , PyTorch ou TensorFlow para direcionar a NPU. Segue-se um breve Python que demonstra como exportar um YOLO para o OpenVINO , o qual delega de forma integrada as cargas de trabalho de computação às Intel para uma inferência em tempo real acelerada.
from ultralytics import YOLO
# Load the highly recommended Ultralytics YOLO26 Nano model
model = YOLO("yolo26n.pt")
# Export to OpenVINO with int8 quantization for optimal NPU performance
model.export(format="openvino", int8=True)
# Run highly efficient, accelerated inference on the edge device
results = model("path/to/environment_image.jpg")
Comece sua jornada com o futuro do aprendizado de máquina