Scopri come un'unità di elaborazione neurale (NPU) accelera l'intelligenza artificiale. Scopri come implementare Ultralytics sulle NPU per un edge computing e un'inferenza efficienti e a basso consumo energetico.
Un'unità di elaborazione neurale (NPU) è un circuito hardware specializzato progettato specificamente per accelerare l'esecuzione di algoritmi di intelligenza artificiale e apprendimento automatico. A differenza dei processori generici, le NPU sono progettate con un' architettura in grado di gestire in modo nativo le complesse operazioni matriciali parallele fondamentali per i modelli di deep learning. Eseguendo questi calcoli con estrema efficienza, una NPU riduce drasticamente il consumo energetico migliorando al contempo in modo significativo la latenza di inferenza. Ciò le rende un componente essenziale dei moderni telefoni cellulari, laptop e dispositivi IoT specializzati, dove è fondamentale implementare modelli complessi in modo efficiente senza un rapido esaurimento della batteria.
Per comprendere il valore di una NPU, è utile distinguerla dagli altri acceleratori hardware comunemente presenti nel panorama dell'IA :
L'avvento delle NPU ha reso possibile l'esecuzione dell'intelligenza artificiale (IA) direttamente sui dispositivi degli utenti senza dover ricorrere a una connessione costante al cloud.
Per gli sviluppatori che desiderano sfruttare le NPU, l'implementazione dei modelli di visione artificiale è diventata incredibilmente semplice. Utilizzando il potente modello Ultralytics , è possibile esportare la rete addestrata in formati ottimizzati per vari acceleratori hardware. Per semplificare l'intero ciclo di vita, la Ultralytics offre strumenti affidabili per la gestione dei set di dati nel cloud, l'annotazione automatizzata e l'implementazione di modelli ottimizzati praticamente in qualsiasi ambiente di implementazione.
Quando si lavora in locale, è possibile utilizzare integrazioni di framework come ONNX , PyTorch o TensorFlow per sfruttare l'NPU. Di seguito è riportato un breve Python che mostra come esportare un YOLO nel OpenVINO , il quale delega in modo trasparente i carichi di calcolo alle Intel per un' inferenza in tempo reale accelerata.
from ultralytics import YOLO
# Load the highly recommended Ultralytics YOLO26 Nano model
model = YOLO("yolo26n.pt")
# Export to OpenVINO with int8 quantization for optimal NPU performance
model.export(format="openvino", int8=True)
# Run highly efficient, accelerated inference on the edge device
results = model("path/to/environment_image.jpg")
Inizia il tuo viaggio con il futuro del machine learning