Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024

Esegui il deployment di Ultralytics YOLO11 in modo fluido utilizzando OpenVINO™

Abirami Vina

5 minuti di lettura

1 luglio 2025

Scopri come l'esportazione di Ultralytics YOLO11 nel formato OpenVINO™ consente un'inferenza rapidissima sull'hardware Intel®, migliorando velocità, scalabilità e accuratezza.

L'adozione dell'IA dipende dall'accessibilità delle soluzioni di IA, e una parte importante di ciò è renderle facili da implementare sull'hardware che le persone già possiedono. L'esecuzione di modelli di IA su GPU (unità di elaborazione grafica) è un'ottima opzione in termini di prestazioni e potenza di elaborazione parallela. 

Tuttavia, la realtà è che non tutti hanno accesso a GPU di fascia alta, soprattutto in ambienti edge o su laptop di uso quotidiano. Ecco perché è così importante ottimizzare i modelli per funzionare in modo efficiente su hardware più ampiamente disponibile come unità di elaborazione centrale (CPU), GPU integrate e unità di elaborazione neurale (NPU).

La computer vision, ad esempio, è una branca dell'IA che consente alle macchine di analizzare e comprendere immagini e flussi video in tempo reale. I modelli di Vision AI come Ultralytics YOLO11 supportano attività chiave come il rilevamento di oggetti e la segmentazione di istanze, che alimentano applicazioni che vanno dall'analisi del retail alla diagnostica medica.

Fig. 1. Utilizzo di Ultralytics YOLO11 per rilevare e segmentare oggetti in un negozio al dettaglio.

Per rendere la computer vision più ampiamente accessibile, Ultralytics ha rilasciato un'integrazione aggiornata con il toolkit OpenVINO, che è un progetto open-source per l'ottimizzazione e l'esecuzione dell'inferenza AI su CPU, GPU e NPU. 

Grazie a questa integrazione, è più facile esportare e distribuire i modelli YOLO11 con un'inferenza fino a 3 volte più veloce sulle CPU e prestazioni accelerate su GPU e NPU Intel. In questo articolo, esamineremo come utilizzare il pacchetto Python Ultralytics per esportare i modelli YOLO11 nel formato OpenVINO e utilizzarlo per l'inferenza. Iniziamo!

Una panoramica di Ultralytics YOLO11

Prima di esaminare i dettagli dell'integrazione OpenVINO supportata da Ultralytics, analizziamo più da vicino cosa rende YOLO11 un modello di computer vision affidabile e di grande impatto. YOLO11 è l'ultimo modello della serie Ultralytics YOLO e offre miglioramenti significativi sia in termini di velocità che di accuratezza. 

Uno dei suoi punti di forza principali è l'efficienza. Ad esempio, Ultralytics YOLO11m ha il 22% in meno di parametri rispetto a Ultralytics YOLOv8m, eppure raggiunge una precisione media media (mAP) più elevata sul dataset COCO. Ciò significa che funziona più velocemente e rileva anche gli oggetti in modo più accurato, rendendolo ideale per applicazioni in tempo reale in cui prestazioni e reattività sono fondamentali.

Fig. 2. Benchmark delle prestazioni di Ultralytics YOLO11.

Oltre al rilevamento di oggetti, YOLO11 supporta varie attività di visione artificiale avanzate come la segmentazione delle istanze, la stima della posa, la classificazione delle immagini, il tracciamento degli oggetti e il rilevamento di bounding box orientati. YOLO11 è anche facile da usare per gli sviluppatori, con il pacchetto Python Ultralytics che fornisce un'interfaccia semplice e coerente per l'addestramento, la valutazione e la distribuzione dei modelli. 

In aggiunta a ciò, il pacchetto Python Ultralytics supporta varie integrazioni e molteplici formati di esportazione, tra cui OpenVINO, ONNX, TorchScript, consentendoti di integrare facilmente YOLO11 in varie pipeline di deployment. Che tu stia puntando a infrastrutture cloud, dispositivi edge o sistemi embedded, il processo di esportazione è semplice e adattabile alle tue esigenze hardware.

Cos'è OpenVINO™?

OpenVINO™ (Open Visual Inference and Neural Network Optimization) è un toolkit open-source per l'ottimizzazione e la distribuzione dell'inferenza AI su una vasta gamma di hardware. Consente agli sviluppatori di eseguire applicazioni di inferenza ad alte prestazioni in modo efficiente su varie piattaforme Intel, tra cui CPU, GPU integrate e discrete, NPU e array di porte programmabili sul campo (FPGA).

OpenVINO fornisce un'interfaccia di runtime unificata che astrae le differenze hardware attraverso plugin specifici per dispositivo. Ciò significa che gli sviluppatori possono scrivere codice una sola volta ed eseguirlo su più target hardware Intel utilizzando un'API coerente. 

Ecco alcune delle caratteristiche principali che rendono OpenVINO un'ottima scelta per il deployment:

  • Convertitore di modelli: Questo strumento converte e prepara i modelli da framework popolari come PyTorch, ONNX, TensorFlow, PaddlePaddle e altri, in modo che possano essere ottimizzati per un'inferenza efficiente sull'hardware Intel.
  • Esecuzione eterogenea: Non è necessario riscrivere il codice per diversi hardware Intel. OpenVINO semplifica l'esecuzione dello stesso modello su qualsiasi hardware supportato, dalle CPU alle GPU.
  • Supporto per la quantizzazione: Il toolkit supporta formati a precisione ridotta come FP16 (predefinito) e INT8, che aiutano a ridurre le dimensioni del modello e ad accelerare l'inferenza senza influire significativamente sulla precisione.
Fig. 3. OpenVINO abilita diverse opzioni di implementazione.

Esplorazione dell'integrazione Ultralytics x OpenVINO

Ora che abbiamo esplorato cos'è OpenVINO e il suo significato, discutiamo come esportare i modelli YOLOv8 nel formato OpenVINO ed eseguire un'inferenza efficiente sull'hardware Intel.

Passaggio 1: Installa il pacchetto Python Ultralytics

Per esportare un modello nel formato OpenVINO, è necessario innanzitutto installare il pacchetto Python Ultralytics. Questo pacchetto fornisce tutto il necessario per addestrare, valutare ed esportare modelli YOLO, incluso YOLO11. 

Puoi installarlo eseguendo il comando "pip install ultralytics" nel tuo terminale o prompt dei comandi. Se stai lavorando in un ambiente interattivo come Jupyter Notebook o Google Colab, aggiungi semplicemente un punto esclamativo prima del comando. 

Inoltre, se si riscontrano problemi durante l'installazione o l'esportazione, la documentazione di Ultralytics e le guide alla risoluzione dei problemi sono ottime risorse per aiutarti a rimetterti in carreggiata.

Passaggio 2: Esporta il tuo modello YOLO11 in formato OpenVINO

Una volta configurato il pacchetto Ultralytics, il passaggio successivo consiste nel caricare il modello YOLO11 e convertirlo in un formato compatibile con OpenVINO. 

Nell'esempio seguente, stiamo utilizzando un modello YOLO11 pre-addestrato ("yolo11n.pt"). La funzionalità di esportazione viene utilizzata per convertirlo in formato OpenVINO. Dopo aver eseguito questo codice, il modello convertito verrà salvato in una nuova directory denominata "yolo11n_openvino_model".

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="openvino")

Passaggio 3: Esegui l'inferenza con il modello esportato

Una volta che il modello YOLO11 è stato esportato in formato OpenVINO, è possibile eseguire inferenze in due modi: utilizzando il pacchetto Python Ultralytics o l'OpenVINO Runtime nativo.

Utilizzo del pacchetto Python Ultralytics

Il modello YOLO11 esportato può essere facilmente implementato utilizzando il pacchetto Python Ultralytics, come mostrato nel frammento di codice seguente. Questo metodo è ideale per una rapida sperimentazione e un'implementazione semplificata su hardware Intel. 

Puoi anche specificare quale dispositivo utilizzare per l'inferenza, come "intel:cpu", "intel:gpu" o "intel:npu", a seconda dell'hardware Intel disponibile sul tuo sistema.

ov_model = YOLO("yolo11n_openvino_model/")

results = ov_model("https://ultralytics.com/images/bus.jpg", device="intel:gpu")

Dopo aver eseguito il codice sopra riportato, l'immagine di output verrà salvata nella directory "runs/detect/predict".

Fig. 4. Utilizzo del modello YOLO11 esportato per rilevare oggetti in un'immagine.

Utilizzo del runtime nativo OpenVINO

Se cerchi un modo personalizzabile per eseguire l'inferenza, specialmente in ambienti di produzione, OpenVINO Runtime ti offre un maggiore controllo sull'esecuzione del tuo modello. Supporta funzionalità avanzate come l'esecuzione asincrona (esecuzione di più richieste di inferenza in parallelo) e il bilanciamento del carico (distribuzione efficiente dei carichi di lavoro di inferenza sull'hardware Intel).

Per utilizzare il runtime nativo, avrai bisogno dei file del modello esportato: un file .xml (che definisce l'architettura della rete) e un file .bin (che memorizza i pesi addestrati del modello). Puoi anche configurare parametri aggiuntivi come le dimensioni di input o i passaggi di preelaborazione a seconda della tua applicazione.

Un tipico flusso di deployment include l'inizializzazione del core di OpenVINO, il caricamento e la compilazione del modello per un dispositivo target, la preparazione dell'input e l'esecuzione dell'inferenza. Per esempi dettagliati e guide passo-passo, fare riferimento alla documentazione ufficiale di Ultralytics OpenVINO.

Perché scegliere l'integrazione Ultralytics x OpenVINO?

Mentre esplori le integrazioni di Ultralytics, noterai che il pacchetto Python di Ultralytics supporta l'esportazione di modelli YOLO11 in una varietà di formati come TorchScript, CoreML, TensorRT e ONNX. Quindi, perché scegliere l'integrazione OpenVINO?

Ecco alcuni motivi per cui il formato di esportazione OpenVINO è ideale per il deployment di modelli su hardware Intel:

  • Guadagni in termini di prestazioni: Puoi sperimentare un' inferenza fino a 3 volte più veloce sulle CPU Intel, con ulteriore accelerazione disponibile su GPU e NPU integrate.
  • Nessun retraining necessario: Puoi esportare i tuoi modelli YOLO11 esistenti direttamente in formato OpenVINO senza modificarli o sottoporli a retraining.
  • Creato per la scalabilità: Lo stesso modello esportato può essere implementato su dispositivi edge a bassa potenza e su infrastrutture cloud su larga scala, semplificando l'implementazione scalabile dell'IA.

Puoi anche valutare i benchmark di performance per il modello YOLO11 su una vasta gamma di piattaforme Intel® sull'OpenVINO™ Model Hub. L'OpenVINO Model Hub è una risorsa per gli sviluppatori per valutare i modelli di intelligenza artificiale su hardware Intel e scoprire il vantaggio in termini di prestazioni di OpenVINO su CPU Intel, GPU integrate, NPU e schede grafiche dedicate. 

Fig. 5. OpenVINO™ Model Hub: Benchmark delle prestazioni per il modello YOLO11 su una gamma di piattaforme Intel®.

Applicazioni di YOLO11 e del formato di esportazione OpenVINO

Grazie all'integrazione di OpenVINO, la distribuzione dei modelli YOLO11 sull'hardware Intel in situazioni reali diventa molto più semplice. 

Un ottimo esempio è il retail intelligente, dove YOLOv8 può aiutare a rilevare scaffali vuoti in tempo reale, tracciare quali prodotti stanno per esaurirsi e analizzare come i clienti si muovono nel negozio. Ciò consente ai rivenditori di migliorare la gestione dell'inventario e ottimizzare il layout del negozio per un migliore coinvolgimento degli acquirenti.

Allo stesso modo, nelle smart city, YOLO11 può essere utilizzato per monitorare il traffico contando i veicoli, tracciando i pedoni e rilevando le violazioni dei semafori in tempo reale. Queste informazioni possono supportare l'ottimizzazione del flusso del traffico, migliorare la sicurezza stradale e assistere i sistemi di applicazione automatizzata.

Fig. 6. Conteggio dei veicoli tramite YOLO11.

Un altro caso d'uso interessante è l'ispezione industriale, dove YOLO11 può essere implementato sulle linee di produzione per rilevare automaticamente difetti visivi come componenti mancanti, disallineamenti o danni superficiali. Ciò aumenta l'efficienza, riduce i costi e supporta una migliore qualità del prodotto.

Fattori chiave da considerare quando si utilizza il toolkit OpenVINO

Durante la distribuzione dei modelli YOLO11 con OpenVINO, ecco alcune cose importanti da tenere a mente per ottenere i migliori risultati:

  • Verifica della compatibilità hardware: Assicurati che il tuo hardware Intel, che si tratti di una CPU, di una GPU integrata o di una NPU, sia supportato da OpenVINO in modo che il modello possa essere eseguito in modo efficiente.

  • Installa i driver corretti: Se stai utilizzando GPU o NPU Intel, verifica che tutti i driver necessari siano installati correttamente e aggiornati.

  • Comprendere i tradeoff di precisione: OpenVINO supporta le precisioni del modello FP32, FP16 e INT8. Ognuna di esse comporta un compromesso tra velocità e accuratezza, quindi è importante scegliere l'opzione giusta in base agli obiettivi di performance e all'hardware disponibile.

Punti chiave

L'esportazione di Ultralytics YOLO11 nel formato OpenVINO semplifica l'esecuzione di modelli Vision AI veloci ed efficienti su hardware Intel. Puoi eseguire il deployment su CPU, GPU e NPU senza dover riqualificare o modificare il codice. È un ottimo modo per aumentare le prestazioni mantenendo le cose semplici e scalabili.

Grazie al supporto integrato nel pacchetto Python di Ultralytics, l'esportazione e l'esecuzione dell'inferenza con OpenVINO sono semplici. In pochi passaggi, puoi ottimizzare il tuo modello ed eseguirlo su una varietà di piattaforme Intel. Che tu stia lavorando su smart retail, monitoraggio del traffico o ispezione industriale, questo flusso di lavoro ti aiuta a passare dallo sviluppo all'implementazione con velocità e sicurezza.

Unisciti alla community YOLO e consulta il repository GitHub di Ultralytics per saperne di più sulle integrazioni di grande impatto supportate da Ultralytics. Dai anche un'occhiata alle opzioni di licenza di Ultralytics per iniziare subito a utilizzare la computer vision!

Registrati al nostro prossimo webinar per vedere l'integrazione di Ultralytics × OpenVINO in azione e visita il sito web di OpenVINO per esplorare gli strumenti per l'ottimizzazione e la distribuzione dell'IA su vasta scala.

Costruiamo insieme il futuro
dell'AI!

Inizia il tuo viaggio con il futuro del machine learning

Inizia gratis
Link copiato negli appunti