Yolo Vision Shenzhen
Shenzhen
Iscriviti ora

I 5 consigli principali per implementare YOLO26 in modo efficiente su edge e cloud

Scopri i 5 consigli pratici principali per implementare Ultralytics in modo efficiente su edge e cloud, dalla scelta del flusso di lavoro e del formato di esportazione più adatti alla quantizzazione.

Il mese scorso, Ultralytics ha lanciato Ultralytics Ultralytics , stabilendo un nuovo standard per la Vision AI, una branca dell'intelligenza artificiale che consente alle macchine di interpretare e comprendere le informazioni visive provenienti da immagini e video. Anziché limitarsi a catturare filmati,YOLO di visione artificiale comeYOLO Ultralytics YOLO supportano attività di visione quali il rilevamento di oggetti, la segmentazione di istanze, la stima della posa e la classificazione delle immagini.

Progettato per essere utilizzato nei contesti in cui viene effettivamente impiegata la visione artificiale, ovvero su dispositivi, telecamere, robot e sistemi di produzione, YOLO26 è un modello all'avanguardia che offre un'inferenza più rapida dell'unità di elaborazione centrale (CPU), un'implementazione semplificata e prestazioni end-to-end efficienti in ambienti reali. I modelli YOLO26 sono stati inoltre progettati per facilitare il passaggio delle soluzioni di visione artificiale dalla fase sperimentale a quella produttiva.

Fig. 1. Il modello YOLO26 nano offre CPU fino al 43% più veloce rispetto a YOLO11. (Fonte)

L'implementazione di un modello comporta in genere diverse considerazioni, quali la selezione dell'hardware adeguato, la scelta di un formato di esportazione appropriato, l'ottimizzazione delle prestazioni e la convalida dei risultati in condizioni reali. Seguire questi passaggi durante l'implementazione di YOLO26 è semplice, grazie al Python Ultralytics , che semplifica l'addestramento, l'inferenza e l'esportazione del modello su più destinazioni di implementazione.

Tuttavia, anche con flussi di lavoro semplificati, è fondamentale prendere le giuste decisioni di implementazione. In questo articolo, illustreremo cinque consigli pratici per aiutarti a implementare YOLO26 in modo efficiente in ambienti edge e cloud, garantendo prestazioni affidabili e scalabili della Vision AI in produzione. Cominciamo!

Che cos'è l'implementazione dei modelli nella visione artificiale?

Prima di addentrarci nelle strategie di implementazione di YOLO26, facciamo un passo indietro e cerchiamo di capire cosa significa implementazione di modelli nella visione artificiale.

L'implementazione del modello è il processo di trasferimento di un modello di deep learning addestrato da un ambiente di sviluppo a un'applicazione reale, dove può elaborare nuove immagini o flussi video e generare previsioni in modo continuo. Anziché eseguire esperimenti su set di dati statici, il modello diventa parte integrante di un sistema live.

Nella visione artificiale, ciò significa spesso integrare il modello con telecamere, dispositivi AI edge, API o infrastrutture cloud. Deve funzionare entro i limiti hardware, soddisfare i requisiti di latenza e mantenere prestazioni costanti in condizioni reali mutevoli.

Comprendere questo passaggio dalla sperimentazione alla produzione è fondamentale perché le decisioni relative all'implementazione influiscono direttamente sulle prestazioni di un modello al di fuori di un laboratorio o di un ambiente sperimentale.

Comprendere i flussi di lavoro di implementazione Ultralytics

Vediamo ora in cosa consiste effettivamente il flusso di lavoro di implementazione di YOLO26. In parole povere, si tratta della sequenza di passaggi che porta un'immagine dall'acquisizione all'analisi e alla trasformazione in una previsione.

In una configurazione tipica, una telecamera cattura un'immagine o un fotogramma video. Questi dati vengono quindi pre-elaborati, ad esempio ridimensionandoli o formattandoli correttamente, prima di essere trasmessi a Ultralytics per l'inferenza. 

Il modello analizza gli input e produce output quali bounding box, maschere di segmentazione o punti chiave. Questi risultati possono quindi essere utilizzati per attivare azioni quali l'invio di avvisi, l'aggiornamento di un dashboard o la guida di un sistema robotico.

Il luogo in cui viene eseguito questo flusso di lavoro dipende dalla strategia di implementazione. Ad esempio, in un'implementazione edge, l'inferenza avviene direttamente sul dispositivo o vicino alla telecamera, contribuendo a ridurre la latenza e a migliorare la privacy dei dati. 

Nel frattempo, in un'implementazione cloud, le immagini o i fotogrammi video vengono inviati a server remoti per l'elaborazione, consentendo una maggiore scalabilità e una gestione centralizzata. Alcuni sistemi utilizzano un approccio ibrido, eseguendo elaborazioni leggere ai margini e carichi di lavoro più pesanti nel cloud.

Esplorazione delle varianti del modello YOLO26 

Per prendere decisioni informate sull'implementazione, è anche importante comprendere che esistono diverse varianti del modello YOLO26 tra cui scegliere.

YOLO Ultralytics YOLO sono disponibili in diverse dimensioni, rendendo facile la scelta della versione più adatta alle vostre esigenze hardware e prestazionali. YOLO26 è disponibile in cinque varianti: Nano (n), Small (s), Medium (m), Large (l) ed Extra Large (x). 

I modelli più piccoli, come YOLO26n, sono ottimizzati per l'efficienza e sono ideali per dispositivi edge, dispositivi Internet of Things (IoT), sistemi integrati e sistemi alimentati da CPU, dove sono importanti la bassa latenza e il basso consumo energetico. Offrono prestazioni elevate mantenendo minimo l'utilizzo delle risorse.

I modelli più grandi, come YOLO26l e YOLO26x, sono progettati per offrire una maggiore precisione e gestire scene più complesse. Queste varianti offrono in genere prestazioni ottimali su sistemi dotati di unità di elaborazione grafica (GPU) o in ambienti cloud in cui sono disponibili maggiori risorse di calcolo. 

La scelta della dimensione giusta del modello dipende dagli obiettivi di implementazione. Se la velocità e l'efficienza su hardware limitato sono le priorità principali, una variante più piccola potrebbe essere l'ideale. Se l'applicazione richiede la massima precisione e si ha accesso a hardware più potente, un modello più grande potrebbe essere la scelta migliore.

Suggerimenti per implementare YOLO26 in modo efficiente

Ora che abbiamo una migliore comprensione delle varianti del modello YOLO26 e dei flussi di lavoro di implementazione, esploriamo alcuni suggerimenti pratici per implementare YOLO26 in modo efficiente in ambienti edge e cloud.

Suggerimento 1: Valuta le opzioni di distribuzione del modello

Una delle prime decisioni che dovrai prendere quando distribuisci Ultralytics è dove eseguire il modello. Il tuo ambiente di distribuzione influisce direttamente sulle prestazioni, sulla latenza, sulla privacy e sulla scalabilità.

Inizia valutando il tuo flusso di lavoro. La tua applicazione richiede una bassa latenza, ovvero le previsioni devono essere generate quasi istantaneamente dopo l'acquisizione di un'immagine? 

Ad esempio, nella robotica o nei sistemi di sicurezza, anche piccoli ritardi possono influire sulle prestazioni. In questi casi, l'implementazione edge è spesso l'opzione migliore. L'esecuzione dell'inferenza direttamente su un dispositivo o vicino alla telecamera riduce il tempo necessario per elaborare i dati ed evita l'invio di immagini su Internet, migliorando anche la privacy.

D'altra parte, l'implementazione cloud offre una maggiore scalabilità e potenza di calcolo. I server cloud sono in grado di elaborare grandi volumi di immagini, gestire più flussi video e supportare un throughput più elevato. 

Ad esempio, nel settore agricolo, un agricoltore potrebbe raccogliere migliaia di immagini di foglie e analizzarle in batch per determinare se le colture mostrano segni di malattia. In questo tipo di scenario, potrebbe non essere necessaria una performance immediata in tempo reale, rendendo l'elaborazione cloud una scelta pratica e scalabile.

Fig. 2. Esempio di utilizzo di YOLO26 per analizzare immagini di foglie

Tuttavia, l'invio di dati a server remoti introduce una latenza di rete, ovvero il ritardo causato dalla trasmissione delle immagini su Internet e dalla ricezione delle previsioni in cambio. Per le applicazioni che non sono sensibili al fattore tempo, questo compromesso può essere accettabile.

Esistono anche opzioni intermedie tra edge puro e cloud puro. Alcune aziende utilizzano infrastrutture on-premise situate vicino al luogo in cui vengono generati i dati. Altre creano pipeline ibride, eseguendo un filtraggio leggero sull'edge e inviando i dati selezionati al cloud per un'analisi più approfondita.

La scelta dell'opzione di implementazione più adeguata dipende dai requisiti della vostra applicazione. Definendo chiaramente le vostre esigenze in termini di velocità, privacy e scalabilità, potrete selezionare una strategia che garantisca prestazioni affidabili di YOLO26 in condizioni reali.

Suggerimento 2: scegli il formato di esportazione compatibile con il tuo hardware

Una volta deciso dove verrà eseguito il modello, il passo successivo è scegliere il formato di esportazione corretto. Esportare un modello significa convertirlo dal formato utilizzato durante l'addestramento in un formato ottimizzato per l'implementazione. 

I modelli YOLO26 sono sviluppati e addestrati in modo nativo in PyTorch, ma gli ambienti di produzione spesso si affidano a runtime specializzati che sono più adatti a hardware specifici. Questi runtime sono progettati per migliorare la velocità di inferenza, ridurre l'utilizzo della memoria e garantire la compatibilità con il dispositivo di destinazione. 

La conversione di YOLO26 nel formato appropriato consente di eseguirlo in modo efficiente al di fuori dell'ambiente di formazione. IlPython Ultralytics semplifica questo processo. Supporta un'ampia gamma di integrazioni per la creazione e l'implementazione di progetti di visione artificiale. 

Se desideri approfondire queste integrazioni, puoi consultare la Ultralytics ufficiale Ultralytics . Include tutorial dettagliati, indicazioni specifiche sull'hardware ed esempi pratici per aiutarti a passare dallo sviluppo alla produzione con sicurezza.

Fig. 3. Ultralytics diverse integrazioni (Fonte)

In particolare, ilPython Ultralytics supporta l'esportazione Ultralytics in diversi formati su misura per diverse piattaforme hardware. Ad esempio, il formato ONNX consente la compatibilità multipiattaforma, il formato TensorRT è ottimizzato per NVIDIA e i dispositivi edge NVIDIA , mentre il formato OpenVINO è progettato per Intel .

Alcuni dispositivi supportano più di un formato di esportazione, ma le prestazioni possono variare a seconda di quello scelto. Invece di selezionare un formato predefinito, chiediti: quale opzione è la più efficiente per il tuo dispositivo?

Un formato può garantire un'inferenza più rapida, mentre un altro può offrire una maggiore efficienza di memoria o una più facile integrazione nella pipeline esistente. Ecco perché è importante abbinare il formato di esportazione all'hardware specifico e all'ambiente di distribuzione.

Prendersi il tempo necessario per testare diverse opzioni di esportazione sul dispositivo di destinazione può fare una notevole differenza nelle prestazioni reali. Un formato di esportazione ben abbinato contribuisce a garantire che YOLO26 funzioni in modo efficiente, affidabile e alla velocità richiesta dall'applicazione.

Suggerimento 3: chiedi se il tuo modello necessita di quantizzazione

Dopo aver selezionato un formato di esportazione, è anche una buona idea determinare se il modello debba essere quantizzato. 

La quantizzazione del modello riduce la precisione numerica dei pesi e dei calcoli di un modello, convertendoli tipicamente da 32 bit in virgola mobile a formati di precisione inferiore, come 16 bit o 8 bit. Ciò contribuisce a ridurre le dimensioni del modello, diminuire l'utilizzo della memoria e migliorare la velocità di inferenza, in particolare sui dispositivi edge o sui sistemi alimentati da una CPU.

A seconda dell'hardware, del formato di esportazione e delle dipendenze di runtime, la quantizzazione può migliorare notevolmente le prestazioni. Alcuni runtime sono ottimizzati per modelli a precisione inferiore, consentendo loro di funzionare in modo più veloce ed efficiente.

Tuttavia, la quantizzazione può influire leggermente sulla precisione se non viene applicata con attenzione. Quando si esegue la quantizzazione post-addestramento, assicurarsi di passare le immagini di convalida. Queste immagini vengono utilizzate durante la calibrazione per aiutare il modello ad adattarsi a una precisione inferiore e mantenere previsioni stabili.

Suggerimento 4: tenere conto della deriva dei dati

Anche il modello meglio addestrato può perdere prestazioni nel tempo a causa della deriva dei dati. La deriva dei dati si verifica quando i dati che il modello vede in produzione sono diversi dai dati su cui è stato addestrato. 

In altre parole, il mondo reale cambia, ma il tuo modello no. Di conseguenza, l'accuratezza può diminuire gradualmente.

Ad esempio, potresti addestrare il tuo modello YOLO26 utilizzando immagini acquisite durante il giorno. Se lo stesso modello viene successivamente utilizzato di notte, in condizioni di illuminazione diverse, le prestazioni potrebbero diminuire. Lo stesso problema può verificarsi con cambiamenti nell'angolazione della telecamera, nelle condizioni meteorologiche, negli sfondi o nell'aspetto degli oggetti. 

La deriva dei dati è comune nei sistemi di visione artificiale del mondo reale. Gli ambienti sono raramente statici e piccoli cambiamenti possono influire sulla precisione del rilevamento. Per ridurre l'impatto della deriva, è possibile assicurarsi che il set di dati di addestramento rifletta il più fedelmente possibile le condizioni del mondo reale. 

Includi immagini acquisite in diversi momenti della giornata, in diverse condizioni di illuminazione e in vari ambienti. Dopo l'implementazione, puoi continuare a monitorare le prestazioni e aggiornare o ottimizzare il modello quando necessario.

Suggerimento 5: Effettuare il benchmark in condizioni reali

Prima di implementare completamente il modello, è possibile sottoporlo a benchmark in condizioni reali.

Fig. 4. Confronto tra YOLO26 e altri modelli (Fonte)

È prassi comune testare le prestazioni in ambienti controllati utilizzando immagini campione o piccoli set di dati. Tuttavia, i sistemi reali spesso si comportano in modo diverso. Limitazioni hardware, ritardi di rete, flussi video multipli e input continui possono tutti influire sulle prestazioni.

Il benchmarking consiste nel misurare le prestazioni del modello sul dispositivo e nella configurazione effettivi su cui verrà eseguito. Ciò include la verifica della velocità di inferenza, della latenza complessiva, dell'utilizzo della memoria e della stabilità del sistema. È importante testare non solo il modello stesso, ma l'intera pipeline, comprese le fasi di pre-elaborazione e post-elaborazione.

Un modello può funzionare bene su un singolo test di immagine, ma avere difficoltà nell'elaborazione continua di video in diretta. Allo stesso modo, le prestazioni su una potente macchina di sviluppo potrebbero non riflettere il comportamento del modello su un dispositivo edge a bassa potenza.

Effettuando un benchmarking in condizioni realistiche, è possibile identificare tempestivamente eventuali colli di bottiglia e apportare le modifiche necessarie prima della messa in produzione. Eseguire i test nello stesso ambiente in cui opererà YOLO26 contribuisce a garantire prestazioni affidabili, stabili e costanti in produzione.

Altre considerazioni chiave relative all'implementazione del modello

Ecco alcuni fattori aggiuntivi da tenere a mente quando si implementa YOLO26:

  • Monitoraggio e registrazione: configurare strumenti di monitoraggio per track quali latenza, accuratezza e integrità del sistema dopo l'implementazione.
  • Sicurezza e privacy: implementare misure di protezione per salvaguardare i dati visivi sensibili, in particolare quando si utilizzano infrastrutture cloud o remote.
  • Ottimizzazione dei colli di bottiglia della pipeline: valutare l'intera pipeline, compresi moduli quali pre-elaborazione, inferenza, post-elaborazione e trasferimento dei dati, poiché i ritardi possono verificarsi al di fuori del modello stesso.
  • Pianificazione della scalabilità: pianifica in anticipo la crescita assicurandoti che il tuo sistema sia in grado di gestire un aumento del traffico, telecamere aggiuntive o carichi di lavoro ampliati.

Punti chiave

Per implementare YOLO26 in modo efficiente, occorre innanzitutto capire dove verrà eseguito il modello e quali sono le reali esigenze dell'applicazione. Scegliendo l'approccio di implementazione corretto, abbinando il formato di esportazione all'hardware e testando le prestazioni in condizioni reali, è possibile creare sistemi di visione artificiale affidabili e reattivi. Con la configurazione giusta, Ultralytics semplifica l'implementazione di una visione artificiale veloce e pronta per la produzione sia nell'edge che nel cloud.

Entra a far parte della nostra community ed esplora il nostro repository GitHub. Dai un'occhiata alle nostre pagine dedicate alle soluzioni per scoprire varie applicazioni, come l'IA nell'agricoltura e la visione artificiale nel settore sanitario. Scopri le nostre opzioni di licenza e inizia oggi stesso a utilizzare Vision AI!

Costruiamo insieme il futuro
dell'AI!

Inizia il tuo viaggio con il futuro del machine learning

Inizia gratis