Yolo Vision Shenzhen
Shenzhen
Iscriviti ora

Esportazione di modelli Ultralytics YOLO11 nel formato modello NCNN

Abirami Vina

5 minuti di lettura

18 giugno 2025

Esporta i modelli Ultralytics YOLO11 nel formato modello NCNN per eseguire inferenze AI efficienti e a bassa latenza su dispositivi edge con risorse di calcolo e alimentazione limitate.

Le soluzioni di IA stanno diventando sempre più comuni, anche in settori ad alto rischio come la gestione dei disastri, la gestione dei rifiuti e la lotta antincendio. Con la continua crescita dell'adozione, i modelli di IA vengono implementati in ambienti più diversi: non solo su server o nel cloud, ma direttamente su dispositivi operativi sul campo.

Ad esempio, i droni e le apparecchiature con componenti edge alimentati da piccoli processori possono svolgere un ruolo cruciale nelle zone disastrate. Dotati di telecamere termiche, questi dispositivi possono raccogliere e analizzare i dati in loco per localizzare le persone intrappolate sotto le macerie. Ciò è reso possibile dalla computer vision, una branca dell'intelligenza artificiale che interpreta le informazioni visive da immagini e video.

Tuttavia, implementare modelli di Vision AI su dispositivi edge non è così semplice come potrebbe sembrare. I modelli di AI devono essere ottimizzati per funzionare in modo efficiente su hardware con potenza di calcolo e memoria limitate. Ecco perché framework AI come NCNN sono essenziali. Aiutano a convertire e ottimizzare i modelli per prestazioni in tempo reale su dispositivi a bassa potenza senza sacrificare l'accuratezza.

In particolare, i modelli Ultralytics YOLO come Ultralytics YOLO11 possono essere facilmente esportati nel formato di modello NCNN utilizzando l'integrazione NCNN supportata da Ultralytics. La conversione di YOLO11 nel formato di modello NCNN consente al modello di funzionare più velocemente, utilizzare meno memoria e operare senza problemi su diversi dispositivi senza perdere precisione.

In questo articolo esploreremo l'integrazione NCNN supportata da Ultralytics e illustreremo come è possibile esportare il modello YOLO11 nel formato modello NCNN. Iniziamo!

Una panoramica di NCNN: un framework leggero per reti neurali

NCNN è un framework open-source per l'inferenza di reti neurali sviluppato da Tencent. È stato specificamente progettato per ambienti mobili ed edge, alimentando l'inferenza ad alte prestazioni con un ingombro minimo. Questo lo rende ideale per la distribuzione su dispositivi con risorse limitate come smartphone, droni e dispositivi IoT (Internet of Things).

Il framework NCNN ha guadagnato popolarità nella comunità dell'IA e del deep learning grazie alla sua efficienza, portabilità e ottimizzazione per CPU mobili (Central Processing Units). Consente agli sviluppatori di eseguire modelli di reti neurali su dispositivi economici con memoria e potenza di elaborazione limitate. Progettato per essere semplice e flessibile, NCNN supporta un'ampia gamma di modelli di computer vision e viene eseguito su più piattaforme, tra cui Android, Linux, iOS e macOS.

Fig. 1. I modelli in formato NCNN possono essere distribuiti su molte piattaforme.

Caratteristiche principali dell'ottimizzazione delle prestazioni di NCNN

Ecco alcune delle caratteristiche principali che rendono NCNN un framework di inferenza di reti neurali di grande impatto e ampiamente utilizzato:

  • Runtime leggero e indipendente dall'hardware: Il framework NCNN è ottimizzato per eseguire modelli su CPU standard e non richiede hardware specializzato come GPU (Graphics Processing Units) o NPU (Neural Processing Units).
  • Quantizzazione del modello: Per le applicazioni in cui la memoria e la velocità sono fondamentali, NCNN supporta metodi di quantizzazione che riducono le dimensioni del modello e migliorano il tempo di inferenza. Aiuta a eseguire i modelli di intelligenza artificiale senza problemi su dispositivi mobili e embedded.
  • Open source e accessibile: In quanto framework open source, NCNN è disponibile gratuitamente per chiunque lo utilizzi, lo modifichi e lo migliori. Ciò incoraggia l'innovazione e l'ampia adozione in una varietà di casi d'uso.
  • Sviluppo attivo e community: NCNN è attivamente mantenuto su GitHub da Tencent e da una community di sviluppatori in crescita, con aggiornamenti regolari e miglioramenti della compatibilità dei modelli.

Esportazione di YOLOv8 nel formato modello NCNN: una guida rapida

Ora che abbiamo discusso di cosa sia NCNN, diamo un'occhiata più da vicino a come esportare i modelli YOLOv8 nel formato NCNN.

Passaggio 1: Installa il pacchetto Python Ultralytics

Prima di esportare il modello, il primo passo è installare il pacchetto Python di Ultralytics utilizzando il programma di installazione dei pacchetti, pip. Questo può essere fatto eseguendo "pip install ultralytics" nel tuo terminale o prompt dei comandi. Se stai lavorando in un Jupyter Notebook o Google Colab, aggiungi un punto esclamativo prima del comando, in questo modo: "!pip install ultralytics".

Il pacchetto Ultralytics fornisce strumenti per addestrare, testare, ottimizzare ed esportare modelli di Vision AI per una varietà di attività di computer vision. In caso di problemi durante l'installazione o l'esportazione di un modello, la documentazione ufficiale di Ultralytics e la guida ai problemi comuni sono ottime risorse per la risoluzione dei problemi.

Passaggio 2: Esportazione di Ultralytics YOLO11

Dopo aver installato il pacchetto Ultralytics, puoi caricare il tuo modello YOLO11 ed esportarlo in formato NCNN. L'esempio seguente utilizza un modello pre-addestrato ("yolo11n.pt") e lo esporta in formato NCNN, salvando l'output in una cartella denominata "/yolo11n_ncnn_model". 

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="ncnn")  

Il modello YOLO11 esportato può quindi essere implementato su vari dispositivi leggeri come smartphone, sistemi embedded o piattaforme IoT. Il processo di implementazione è inoltre molto semplificato. 

Ad esempio, si consideri il frammento di codice riportato di seguito, che mostra come caricare il modello esportato ed eseguire l'inferenza. L'inferenza si riferisce al processo di utilizzo di un modello addestrato per fare previsioni su dati nuovi e non visti. In questo esempio, il modello viene testato su un'immagine di un uomo che va in bicicletta, prelevata da un URL disponibile pubblicamente.

ncnn_model = YOLO("./yolo11n_ncnn_model")

results = ncnn_model("https://images.pexels.com/photos/19431209/pexels-photo-19431209/free-photo-of-a-man-riding-a-bike-on-a-road.jpeg?auto=compress&cs=tinysrgb&w=1260&h=750&dpr=2.jpg", save=True)

Dopo aver eseguito il codice, troverai l'immagine di output nella cartella "runs/detect/predict".

Fig. 2. Rilevamento di oggetti utilizzando un modello YOLO11 esportato in formato NCNN. Immagine dell'autore.

Perché scegliere il rilevamento in tempo reale con NCNN?

Esplorando le varie integrazioni supportate da Ultralytics, potresti notare che sono disponibili diverse opzioni di esportazione. Quindi, quando dovresti scegliere il formato NCNN?

Il formato di esportazione NCNN è una scelta affidabile quando è necessario distribuire modelli YOLO11 su dispositivi con risorse limitate. È particolarmente utile per applicazioni in tempo reale che vengono eseguite direttamente sul dispositivo, come i dispositivi edge, senza bisogno di una connessione al cloud. Ciò significa che il modello può gestire attività come il rilevamento di oggetti direttamente sul posto.

Ecco alcuni scenari comuni in cui NCNN è un'ottima soluzione:

  • Deployment mobile: Il formato NCNN è ottimizzato per Android e iOS, rendendo facile l'integrazione dei modelli nelle app mobile per un'inferenza on-device veloce con latenza minima.
  • Sistemi embedded e dispositivi IoT: Se stai eseguendo il deployment su dispositivi come Raspberry Pi o NVIDIA Jetson, l'esportazione in NCNN può contribuire a migliorare le prestazioni e la reattività.
  • Distribuzione su desktop e server: Sebbene NCNN sia ottimo per i dispositivi a basso consumo energetico, supporta anche Linux, Windows e macOS per ambienti desktop e server. Ciò offre agli sviluppatori opzioni flessibili per la distribuzione.
Fig. 3. Opzioni per il deployment del modello YOLO11 con NCNN. Immagine dell'autore.

Casi d'uso di implementazione del modello YOLO11 con NCNN

Ora, approfondiamo alcuni casi d'uso pratici in cui l'esportazione di modelli YOLO11 in NCNN può fare la differenza.

Caschi Vision AI per la lotta antincendio

I caschi di sicurezza dotati di telecamere e microcomputer integrati possono essere utilizzati in settori come l'edilizia e la lotta antincendio per migliorare la sicurezza e la consapevolezza. I modelli Vision AI in tempo reale, come YOLO11, possono essere eseguiti su questi dispositivi per rilevare vari tipi di oggetti e attrezzature. Ad esempio, tali caschi possono aiutare i vigili del fuoco a rilevare persone, ostacoli o pericoli in condizioni di scarsa visibilità.

Tuttavia, l'esecuzione di modelli a grandezza naturale direttamente su dispositivi indossabili può causare prestazioni lente e scaricare rapidamente la batteria. In questo caso, l'utilizzo dell'integrazione NCNN è una scelta intelligente. Consente un'inferenza a bassa latenza ed efficienza energetica. 

Classificazione dei rifiuti e contenitori intelligenti

Allo stesso modo, i cestini intelligenti per i rifiuti possono essere integrati con telecamere e processori edge AI compatti per identificare e smistare i materiali man mano che vengono scartati. I modelli di Vision AI come YOLO11 possono essere addestrati su misura per rilevare diversi tipi di materiali di scarto come carta, plastica, gomma, ecc.

Una volta identificati i rifiuti, possono essere automaticamente smistati in scomparti separati in base alla loro riutilizzabilità. Utilizzando l'edge AI insieme ai modelli YOLO11 esportati in formato NCNN, questi contenitori possono elaborare i dati localmente, senza bisogno di una connessione Internet. Ciò consente loro di operare autonomamente e prendere decisioni di smistamento in tempo reale con il minimo ritardo.

Fig. 4. Rilevamento di materiali di scarto plastici tramite YOLO11.

Monitoraggio del bestiame tramite droni e computer vision

A volte, le aree agricole in località remote non hanno accesso a connessioni internet stabili o persino a un'alimentazione elettrica costante, il che limita la loro capacità di eseguire applicazioni di intelligenza artificiale online. In questi casi, è possibile utilizzare dispositivi edge e droni per gestire una varietà di attività. 

Un buon esempio è il monitoraggio del bestiame come bovini, ovini e pollame. Questo può essere fatto utilizzando modelli di Vision AI come YOLOv8, che possono essere utilizzati per tracciare il movimento degli animali, rilevare segni di lesioni, malattie o comportamenti anomali e avvisare gli agricoltori quando gli animali scompaiono. L'integrazione NCNN rende anche possibile eseguire ed elaborare questi dati direttamente sui dispositivi edge, rendendolo ideale per l'analisi di immagini e video nelle aziende agricole in aree remote o isolate.

Fig 5. Uno sguardo all'utilizzo di YOLO11 per il monitoraggio del bestiame.

Punti chiave

L'esportazione di modelli YOLO11 utilizzando l'integrazione NCNN supportata da Ultralytics è un modo semplice per portare la Vision AI in ambienti a bassa potenza. Che si tratti di droni in zone disastrate, contenitori intelligenti per la selezione dei rifiuti o monitoraggio del bestiame in aziende agricole remote, YOLO e NCNN consentono inferenze AI in tempo reale che sono veloci, efficienti e portatili. Questo approccio aiuta a rendere i sistemi di intelligenza artificiale più accessibili e affidabili quando è più importante.

Vuoi saperne di più sull'IA? Esplora il nostro repository GitHub, entra in contatto con la nostra community e dai un'occhiata alle nostre opzioni di licenza per dare il via al tuo progetto di computer vision. Scopri come innovazioni come l'IA nel retail e la computer vision nel settore sanitario stanno plasmando il futuro nelle nostre pagine delle soluzioni.

Costruiamo insieme il futuro
dell'AI!

Inizia il tuo viaggio con il futuro del machine learning

Inizia gratis
Link copiato negli appunti