Yolo Vision Shenzhen
Shenzhen
Iscriviti ora

Ultralytics vs YOLO11 YOLOv8: quale scegliere?

Scopri le differenze tra Ultralytics , Ultralytics YOLO11 Ultralytics YOLOv8 scopri quale modello di visione artificiale scegliere per i tuoi progetti.

Scala i tuoi progetti di visione artificiale con Ultralytics

Inizia

I sistemi di visione artificiale all'avanguardia, spesso basati su reti neurali convoluzionali (CNN), consentono alle macchine di analizzare e interpretare i dati visivi provenienti da immagini e video, e vengono ora implementati in una vasta gamma di contesti. 

Dall'agricoltura alla produzione manifatturiera e alla vendita al dettaglio, questi sistemi operano in una vasta gamma di ambienti di implementazione, tra cui dispositivi edge, hardware integrato, dispositivi dell'Internet delle cose (IoT), elaborazione locale e pipeline cloud su larga scala a supporto di applicazioni in tempo reale.

Nell'uso pratico, l'implementazione di questi modelli non è sempre semplice. Spesso devono funzionare con risorse di calcolo limitate, soddisfare rigorosi requisiti di latenza e scalare senza aumentare in modo significativo i costi. Questi vincoli rendono le prestazioni un problema multidimensionale, che non riguarda solo l'accuratezza.

Sebbene l'accuratezza rimanga un fattore importante, è altrettanto fondamentale che un modello funzioni in modo efficiente in ambiente di produzione. Fattori quali la velocità, l'utilizzo delle risorse e la scalabilità giocano un ruolo fondamentale nelle prestazioni di un sistema nel lungo periodo.

I modelli di visione artificiale come YOLO Ultralytics si sono evoluti tenendo conto di questo equilibrio. Ad esempio, Ultralytics YOLOv8 ha gettato basi solide e versatili, Ultralytics YOLO11 ha fatto un ulteriore passo avanti migliorando velocità e precisione, e Ultralytics si basa su questo risultato risultando più leggero, veloce ed efficiente che mai.

Fig. 1. Utilizzo di Ultralytics per detect in un'immagine (Fonte)

In questo articolo metteremo a confronto Ultralytics , YOLO11 YOLOv8 aiutarti a scegliere il modello più adatto al tuo progetto di visione artificiale. Cominciamo!

Comprendere l'evoluzioneYOLO Ultralytics

Ogni nuova versioneYOLO Ultralytics ha introdotto miglioramenti volti a soddisfare meglio le esigenze del mondo reale e a rendere la visione artificiale più accessibile. Questi aggiornamenti hanno reso i modelli più veloci, più efficienti e più facili da implementare, favorendo la crescita dell'ecosistema dell'intelligenza artificiale applicata alla visione. 

Inoltre, sono basati su PyTorch, il che li rende facili da addestrare, personalizzare e integrare in flussi di lavoro intelligenti di machine learning.YOLO Ultralytics sono disponibili fin da subito come modelli pre-addestrati, spesso addestrati su COCO come COCO , consentendo ai team di iniziare rapidamente e di ottimizzarli per casi d'uso specifici.

Inoltre, il Python Ultralytics semplifica l'implementazione grazie al supporto integrato per l'esportazione dei modelli in formati quali ONNX TensorRT. Ciò facilita l'integrazione dei modelli su diverse piattaforme hardware, dai dispositivi edge ai sistemi GPU.

Passaggio da Ultralytics YOLOv5 Ultralytics

YOLO primoYOLO Ultralytics , Ultralytics YOLOv5, è diventato molto popolare grazie alle sue affidabili capacità di rilevamento degli oggetti. Basato su un approccio di rilevamento in un unico stadio, ha consentito previsioni veloci e in tempo reale in un unico passaggio, rendendolo particolarmente adatto ai flussi di lavoro di produzione. 

Aggiornamenti successivi hanno introdotto varianti senza ancore, in cui il modello prevede direttamente la posizione degli oggetti invece di utilizzare riquadri di riferimento predefiniti, rendendo il rilevamento più flessibile. Tuttavia, il modello originale è rimasto incentrato principalmente sulle attività di rilevamento degli oggetti.

Partendo da queste basi, YOLOv8 l'ambito di applicazione della famiglia di modelli. Anziché concentrarsi esclusivamente sul rilevamento di oggetti, ha aggiunto il supporto per diverse attività di visione artificiale, quali la segmentazione di istanze, la classificazione delle immagini, la stima della posa e il rilevamento di bounding box orientati (OBB). Ha inoltre introdotto miglioramenti a livello di architettura, tra cui design avanzati delle componenti backbone e neck, che hanno ottimizzato l'estrazione delle caratteristiche e le prestazioni complessive di rilevamento. 

Oltre a ciò, varianti quali YOLOv8n Nano), YOLOv8s Small), YOLOv8m Medium), YOLOv8l Large) e YOLOv8x Extra Large) hanno offerto agli sviluppatori la flessibilità necessaria per bilanciare velocità, precisione e utilizzo delle risorse in base alle loro esigenze. Questa maggiore versatilità, unita alla sua facilità d'uso, lo ha reso la scelta ideale per un'ampia gamma di applicazioni di visione.

Fig. 2. YOLO , come YOLOv8, YOLO11 e YOLO26, supportano una vasta gamma di compiti di visione.

Successivamente, YOLO11 sul miglioramento delle prestazioni nei flussi di lavoro reali, garantendo una maggiore precisione e velocità di inferenza più elevate. Grazie a un'architettura più snella, funziona bene sia in ambienti edge che cloud, pur rimanendo compatibile con YOLOv8 esistenti.

L'ultimo arrivato nella famigliaYOLO Ultralytics , YOLO26, è un modello all'avanguardia che definisce un nuovo standard per l'intelligenza artificiale visiva "edge-first", offrendo un approccio più leggero, veloce ed efficiente per l'implementazione nel mondo reale. È progettato per funzionare in modo efficiente su CPU e sistemi embedded, semplificando al contempo l'implementazione e migliorando le prestazioni in tempo reale in un'ampia gamma di applicazioni.

Confronto tra YOLO26, YOLO11 YOLOv8

Quando si lavora a progetti di visione artificiale, ci si può imbattere in diversi Ultralytics e ci si potrebbe chiedere quale sia quello più adatto al proprio progetto. Vediamo insieme come YOLOv8 YOLO26, YOLO11 YOLOv8 in scenari reali.

YOLOv8 rilasciato nel 2023 e da allora è stato ampiamente utilizzato dalla comunità della visione artificiale. Il forte sostegno della comunità e la sua facilità d'uso lo hanno reso in passato il modello di riferimento per molti team. Se state cercando un modello ben documentato, con un'ampia gamma di tutorial, guide e risorse della comunità, YOLOv8 un ottimo punto di partenza.

Nel 2024 YOLO11 introdotto YOLO11 , caratterizzato da miglioramenti sia in termini di prestazioni che di efficienza. Offre una maggiore velocità e precisione rispetto a YOLOv8, pur mantenendo un'architettura più snella e ottimizzata. Si tratta di un modello più equilibrato, in grado di garantire prestazioni affidabili in ambiente di produzione senza aumentare in modo significativo l'utilizzo delle risorse. 

Quest'anno è stata rilasciata YOLO26, l'ultima versione del modello, incentrata sull'efficienza nell'implementazione su larga scala. Offre CPU più veloce e un migliore utilizzo delle risorse, consentendo ai team di eseguire un maggior numero di carichi di lavoro sullo stesso hardware. 

Ad esempio, il modello YOLO26 nano è in grado di garantire un'inferenza fino al 43% più veloce rispetto a YOLO11 unità di elaborazione centrale (CPU), rendendolo un'ottima scelta per gli ambienti edge e quelli con risorse limitate. Ciò è particolarmente importante poiché le configurazioni tradizionali si basano spesso in larga misura sulle unità di elaborazione grafica (GPU), che possono risultare costose e più difficili da scalare. 

Fig. 3. Confronto delle prestazioni di YOLO26 su CPU (Fonte)

Nel complesso, YOLO26 rappresenta una scelta valida per i team e i singoli utenti che desiderano ottimizzare il rapporto tra prestazioni, costi e scalabilità.

Uno sguardo più da vicino all Ultralytics

YOLO26 è un modello all'avanguardia progettato per l'implementazione in contesti reali, dove efficienza, velocità e scalabilità sono importanti tanto quanto l'accuratezza. Anziché concentrarsi esclusivamente sul miglioramento delle prestazioni nei benchmark, introduce modifiche a livello di architettura e addestramento che rendono i modelli più facili da eseguire, più veloci da implementare e più affidabili in diversi ambienti hardware.

Questi miglioramenti sono particolarmente importanti per i sistemi edge e di produzione, dove la potenza di calcolo limitata, i vincoli di latenza e le considerazioni di costo rivestono un ruolo fondamentale. Semplificando l'inferenza e ottimizzando le prestazioni, YOLO26 consente agli appassionati di IA di sviluppare e scalare le applicazioni di visione in modo più efficiente.

Ecco una panoramica più dettagliata di alcune delle caratteristiche principali di YOLO26:

  • Inferenza end-to-end NMS: uno dei cambiamenti fondamentali è il suo design senza soppressione del massimo (NMS), che elimina la necessità di una post-elaborazione. In parole povere, il modello produce direttamente le previsioni finali. Di conseguenza, la latenza diventa più prevedibile e l'implementazione risulta più semplice.
  • Rimozione del DFL: YOLO26 abbandona il modulo Distribution Focal Loss (DFL) a favore di un approccio più semplice basato sulla previsione dei bounding box. Questa modifica è in linea con il suo design end-to-end e NMS, riducendo la complessità della pipeline e migliorando la coerenza dell'implementazione.
  • Ottimizzatore MuSGD: gli ultimiYOLO Ultralytics introducono MuSGD, un ottimizzatore ibrido che combina la discesa stocastica del gradiente (SGD) con aggiornamenti ispirati al muone. Ciò migliora la stabilità e la convergenza dell'addestramento, garantendo un'ottimizzazione più fluida e un comportamento più coerente per modelli di diverse dimensioni.
  • ‍ProgLoss e STAL: queste innovazioni nell'addestramento, ovvero il Progressive Loss Balancing (ProgLoss) e lo Small-Target-Aware Label Assignment (STAL), rendono il modello più stabile e affidabile. ProgLoss aiuta il modello ad apprendere dai set di dati in modo graduale nel tempo, mentre STAL garantisce che gli oggetti di piccole dimensioni non vengano ignorati durante l'addestramento, migliorando il rilevamento in scene complesse.

Precisione contro efficienza: oltre i benchmark, verso le prestazioni nel mondo reale

Per YOLOv8 le differenze tra YOLO26, YOLO11 e YOLOv8 , cerchiamo di comprendere meglio i fattori che determinano le prestazioni dei modelli nell'uso pratico.

L'accuratezza, spesso misurata tramite metriche di prestazione come la precisione media (mAP), è da tempo uno strumento fondamentale per valutare i modelli di visione artificiale. Essa indica il livello di prestazione di un modello in condizioni standardizzate ed è utile per confrontare versioni diverse.

Tuttavia, una volta che i modelli passano dalla fase di test all'implementazione nel mondo reale, la semplice accuratezza non è più sufficiente. Le prestazioni in produzione dipendono da fattori quali le dimensioni del modello, il tempo di inferenza o la latenza, l'utilizzo delle risorse di calcolo e la capacità del sistema di scalare in diversi ambienti.

A differenza dei benchmark controllati, gli ambienti reali sono spesso imprevedibili. Le condizioni di illuminazione possono cambiare, gli oggetti possono essere parzialmente visibili e i dati di input possono variare in modo significativo rispetto a quelli utilizzati per l'addestramento del modello. Queste variazioni possono influire sulla costanza delle prestazioni del modello nella pratica.

Fig. 4. Un esempio dell'utilizzo di YOLO26 in un ambiente imprevedibile, come un cantiere edile. 

Si pensi, ad esempio, a un impianto con centinaia di telecamere in una città intelligente, in un negozio o in un magazzino. Ogni flusso video deve essere elaborato in tempo reale, il che richiede spesso una frequenza di fotogrammi costante (fotogrammi al secondo, o FPS) per evitare ritardi o perdite di fotogrammi. 

Un modello meno efficiente è in grado di gestire un numero inferiore di flussi simultanei su un determinato sistema, il che significa che il ridimensionamento richiede solitamente hardware aggiuntivo e comporta un aumento dei costi infrastrutturali.

I modelli più efficienti, come YOLO26, sono in grado di elaborare un maggior numero di flussi sullo stesso hardware, sfruttando al meglio le risorse disponibili. Ciò migliora l'efficienza complessiva del sistema e facilita la scalabilità delle implementazioni nel tempo.

Per approfondire il confronto tra YOLO26, YOLO11 YOLOv8, consulta la Ultralytics ufficiale Ultralytics .

Punti chiave 

La serieYOLO Ultralytics si è evoluta per rispondere al meglio alle esigenze di implementazione nel mondo reale. Ogni versione si basa su quella precedente, con un'attenzione sempre maggiore all'efficienza, alla scalabilità e alla facilità di implementazione. In altre parole, se state sviluppando un'applicazione di rilevamento in tempo reale che deve funzionare in modo affidabile su larga scala, Ultralytics è la scelta perfetta.

Vuoi integrare l'intelligenza artificiale visiva nelle tue attività? Scopri le nostre opzioni di licenza. Puoi anche visitare le pagine dedicate alle nostre soluzioni per vedere come l'intelligenza artificiale nel settore manifatturiero stia trasformando le fabbriche e come l'intelligenza artificiale visiva nella robotica stia plasmando il futuro. Unisciti alla nostra comunità in continua crescita ed esplora il nostro repository GitHub per trovare risorse sull'intelligenza artificiale. 

Costruiamo insieme il futuro dell'intelligenza artificiale!

Inizia il tuo viaggio con il futuro del machine learning