Yolo Vision Shenzhen
Shenzhen
Iscriviti ora

Ecco Ultralytics YOLO26: un modello YOLO migliore, più veloce e più piccolo

Esplorate l'ultimo modello di Ultralytics YOLO , Ultralytics YOLO26, e le sue caratteristiche all'avanguardia che supportano un equilibrio ottimale di velocità, precisione e implementazione.

Il 25 settembre, in occasione del nostro evento annuale ibrido YOLO Vision 2025 (YV25) a Londra, Glenn Jocher, il nostro fondatore e CEO, ha annunciato ufficialmente l'ultima novità della serie di modelli Ultralytics YOLO , Ultralytics YOLO26! Il nostro nuovo modello di computer vision, YOLO26, è in grado di analizzare e interpretare immagini e video con un'architettura semplificata che bilancia velocità, precisione e facilità di implementazione. 

Ultralytics YOLO26 semplifica alcuni aspetti del design del modello e aggiunge nuovi miglioramenti, ma continua a offrire le caratteristiche che gli utenti si aspettano dai modelli Ultralytics YOLO . Ad esempio, Ultralytics YOLO26 è facile da usare, supporta una serie di attività di computer vision e offre opzioni di integrazione e distribuzione flessibili. 

Non c'è bisogno di dire che questo rende il passaggio all'utilizzo di Ultralytics YOLO26 senza problemi e non vediamo l'ora che gli utenti lo sperimentino in prima persona quando sarà disponibile al pubblico alla fine di ottobre. 

Figura 1. Un esempio di utilizzo di YOLO26 per detect gli oggetti in un'immagine.

In poche parole, Ultralytics YOLO26 è un modello Vision AI migliore, più veloce e più piccolo. In questo articolo esploreremo le caratteristiche principali di Ultralytics YOLO26 e ciò che porta in tavola. Iniziamo! 

Spingersi oltre i confini della Vision AI con Ultralytics YOLO26

Prima di immergerci nelle caratteristiche principali di Ultralytics YOLO26 e delle applicazioni che rende possibili, facciamo un passo indietro e discutiamo l'ispirazione e la motivazione che hanno guidato lo sviluppo di questo modello.

In Ultralytics abbiamo sempre creduto nel potere dell'innovazione. Fin dall'inizio, la nostra missione è stata duplice. Da un lato, vogliamo rendere accessibile l'IA di Vision in modo che chiunque possa utilizzarla senza barriere. Dall'altro lato, siamo altrettanto impegnati a mantenerla all'avanguardia, spingendo i confini di ciò che i modelli di computer vision possono raggiungere.

Un fattore chiave alla base di questa missione è che lo spazio dell'IA è in continua evoluzione. Ad esempio, l'edge AI, che prevede l'esecuzione di modelli di IA direttamente sui dispositivi invece di fare affidamento sul cloud, viene adottata rapidamente in tutti i settori.

Dalle telecamere intelligenti ai sistemi autonomi, ci si aspetta che i dispositivi all'edge elaborino le informazioni in tempo reale. Questo cambiamento richiede modelli più leggeri e veloci, pur mantenendo lo stesso alto livello di accuratezza.

Ecco perché è necessario migliorare costantemente i modelliYOLO di Ultralytics . Come dice Glenn Jocher: "Una delle sfide più grandi è stata quella di assicurarsi che gli utenti potessero ottenere il massimo da YOLO26, pur continuando a garantire le massime prestazioni".

Una panoramica di Ultralytics YOLO26

YOLO26 è disponibile in cinque diverse varianti di modello, offrendo la flessibilità necessaria per sfruttare le sue capacità in applicazioni di qualsiasi portata.
Tutte queste varianti di modello supportano diverse attività di computer vision, proprio come i precedenti modelliYOLO Ultralytics . Ciò significa che, a prescindere dalla dimensione scelta, si può fare affidamento su YOLO26 per ottenere un'ampia gamma di funzionalità, proprio come Ultralytics YOLO11.

Ecco una panoramica delle attività di computer vision supportate da YOLO26:

  • Rilevamento degli oggetti: YOLO26 è in grado di identificare e localizzare più oggetti all'interno di un'immagine o di un fotogramma video.
  • ‍Segmentazione degli oggetti: Andando oltre il rilevamento, YOLO26 è in grado di generare confini perfetti in termini di pixel attorno a ogni oggetto identificato. 
  • ‍Classificazione delle immagini: Il modello può analizzare un'intera immagine e assegnarla a una categoria o etichetta specifica.‍
  • Stima della posa: YOLO26 è in grado di detect punti chiave e stimare le pose degli esseri umani e di altri oggetti.‍
  • Riquadri di delimitazione orientati (OBB): Il modello è in grado di detect oggetti con qualsiasi angolazione, il che è particolarmente utile per le immagini aeree, da drone e satellitari, in cui elementi come edifici, veicoli o colture possono non essere allineati con il fotogramma dell'immagine.‍
  • Tracciamento degli oggetti: YOLO26 può essere utilizzato per track oggetti nei fotogrammi video o nei flussi in tempo reale.
Fig. 2. Rilevamento di oggetti in un'immagine utilizzando YOLO26.

Uno sguardo all'architettura di YOLO26

Ora che abbiamo una migliore comprensione di ciò che YOLOv8 è in grado di fare, esaminiamo alcune delle innovazioni nella sua architettura.

Il design del modello è stato semplificato rimuovendo il modulo Distribution Focal Loss (DFL), che in precedenza rallentava l'inferenza e limitava la regressione del bounding box. 

Il processo di previsione è stato inoltre semplificato con un'opzione di inferenza end-to-end (E2E), che consente al modello di saltare la tradizionale fase di soppressione non massimaNMS). Questo miglioramento riduce la complessità e consente al modello di fornire risultati più rapidamente, facilitando l'impiego in applicazioni reali.

Altri miglioramenti rendono il modello più intelligente e affidabile. Il Progressive Loss Balancing (ProgLoss) aiuta a stabilizzare l'addestramento e a migliorare la precisione, mentre lo Small-Target-Aware Label Assignment (STAL) assicura che il modello rilevi gli oggetti piccoli in modo più efficace. Inoltre, un nuovo ottimizzatore MuSGD migliora la convergenza dell'addestramento e aumenta le prestazioni complessive.

Infatti, la versione più piccola di YOLO26, il modello nano, ora funziona fino al 43% più velocemente sulle CPU standard, rendendolo particolarmente adatto per app mobili, telecamere intelligenti e altri dispositivi edge dove velocità ed efficienza sono fondamentali.

Ecco un breve riepilogo delle funzionalità di YOLO26 e di ciò che gli utenti possono aspettarsi:

  • Rimozione del DFL: Abbiamo rimosso il modulo Distribution Focal Loss dall'architettura del modello. Indipendentemente dalle dimensioni degli oggetti in un'immagine, YOLO26 è in grado di posizionare bounding box su misura e di funzionare in modo più efficiente.
  • Inferenza end-to-end NMS: YOLO26 aggiunge una modalità opzionale che non richiede la Non-Maximum Suppression (NMS), una fase normalmente utilizzata per rimuovere le previsioni duplicate, rendendo l'implementazione più semplice e veloce per l'uso in tempo reale.
  • ProgLoss e STAL: questi miglioramenti rendono l'addestramento più stabile e aumentano significativamente l'accuratezza, soprattutto per il rilevamento di piccoli oggetti in scene complesse.
  • Ottimizzatore MuSGD: YOLO26 utilizza un nuovo ottimizzatore che combina i punti di forza di due ottimizzatori di formazione (Muon e SGD), aiutando il modello ad apprendere più velocemente e a raggiungere una maggiore precisione.
Fig. 3. Benchmarking di YOLO26.

Semplificare la distribuzione con Ultralytics YOLO26 

Sia che si lavori su applicazioni mobili, telecamere intelligenti o sistemi aziendali, l'implementazione di YOLO26 è semplice e flessibile. Il pacchettoUltralytics Python supporta un numero sempre crescente di formati di esportazione, il che facilita l'integrazione di YOLO26 nei flussi di lavoro esistenti e lo rende compatibile con quasi tutte le piattaforme. 

Alcune delle opzioni di esportazione includono TensorRT per la massima accelerazione GPU , ONNX per un'ampia compatibilità, CoreML per le app native iOS , TFLite per Android e dispositivi edge e OpenVINO per prestazioni ottimizzate su hardware Intel . Questa flessibilità rende semplice portare YOLO26 dallo sviluppo alla produzione senza ulteriori ostacoli.

Un'altra parte cruciale della distribuzione è assicurarsi che i modelli funzionino in modo efficiente su dispositivi con risorse limitate. È qui che entra in gioco la quantizzazione. Grazie alla sua architettura semplificata, YOLO26 gestisce questo aspetto in modo eccezionale. Supporta la distribuzione INT8 (utilizzando la compressione a 8 bit per ridurre le dimensioni e migliorare la velocità con una perdita minima di accuratezza) così come la mezza precisione (FP16) per un'inferenza più rapida sull'hardware supportato. 

Ancora più importante, YOLO26 offre prestazioni coerenti su questi livelli di quantizzazione, quindi puoi fare affidamento su di esso sia che venga eseguito su un server potente o su un dispositivo edge compatto.

Dalla robotica alla produzione: Casi d'uso di YOLOv8 

YOLO26 può essere utilizzato in un'ampia varietà di applicazioni di computer vision in diversi settori e casi d'uso. Dalla robotica alla produzione, può avere un impatto significativo migliorando i flussi di lavoro e consentendo un processo decisionale più rapido e accurato.

Ad esempio, un buon esempio è nella robotica, dove YOLO26 può aiutare i robot a interpretare l'ambiente circostante in tempo reale. Ciò rende la navigazione più fluida e la gestione degli oggetti più precisa. Consente inoltre una collaborazione più sicura con le persone.

Un altro esempio è la produzione, dove il modello può essere utilizzato per il rilevamento dei difetti. Può identificare automaticamente i difetti sulle linee di produzione in modo più rapido e accurato rispetto all'ispezione manuale.

Fig. 4. Rilevamento di bottiglie in una fabbrica di produzione tramite YOLO26.

In generale, poiché YOLO26 è migliore, più veloce e più leggero, si adatta facilmente a una vasta gamma di ambienti, dai dispositivi edge leggeri ai grandi sistemi aziendali. Questo lo rende una scelta pratica per le industrie che cercano di migliorare l'efficienza, l'accuratezza e l'affidabilità.

Punti chiave 

Ultralytics YOLO26 è un modello di computer vision migliore, più veloce e più leggero, ma allo stesso tempo facile da usare e con prestazioni elevate. Funziona su un'ampia gamma di attività e piattaforme e sarà disponibile per tutti entro la fine di ottobre. Non vediamo l'ora di vedere come la comunità lo utilizzerà per creare nuove soluzioni e superare i limiti della computer vision.

Unisciti alla nostra community in crescita! Esplora il nostro repository GitHub per saperne di più sull'AI. Scopri innovazioni come la computer vision nel retail e l'AI nel settore automobilistico visitando le nostre pagine delle soluzioni. Per iniziare subito a sviluppare con la computer vision, scopri le nostre opzioni di licenza.

Costruiamo insieme il futuro
dell'AI!

Inizia il tuo viaggio con il futuro del machine learning

Inizia gratis