Yolo Vision Shenzhen
Shenzhen
Iscriviti ora

Presentazione di Ultralytics YOLO26: un modello YOLO migliore, più veloce e più piccolo

Abirami Vina

5 minuti di lettura

25 settembre 2025

Esplora l'ultimo modello Ultralytics YOLO, Ultralytics YOLO26, e le sue funzionalità all'avanguardia che supportano un equilibrio ottimale tra velocità, precisione e implementabilità.

Il 25 settembre, al nostro evento ibrido annuale, YOLO Vision 2025 (YV25) a Londra, Glenn Jocher, il nostro fondatore e CEO, ha annunciato ufficialmente l'ultima svolta nella serie di modelli Ultralytics YOLO, Ultralytics YOLO26! Il nostro nuovo modello di computer vision, YOLO26, è in grado di analizzare e interpretare immagini e video con un'architettura semplificata che bilancia velocità, precisione e facilità di implementazione. 

Mentre Ultralytics YOLO26 semplifica alcuni aspetti della progettazione del modello e aggiunge nuovi miglioramenti, continua anche a offrire le funzionalità familiari che gli utenti si aspettano dai modelli Ultralytics YOLO. Ad esempio, Ultralytics YOLO26 è facile da usare, supporta una vasta gamma di attività di computer vision e offre opzioni di integrazione e implementazione flessibili. 

Inutile dire che questo rende il passaggio all'utilizzo di Ultralytics YOLO26 senza problemi e non vediamo l'ora che gli utenti lo provino di persona quando sarà disponibile pubblicamente alla fine di ottobre. 

Fig. 1. Un esempio di utilizzo di YOLO26 per rilevare oggetti in un'immagine.

In parole semplici, Ultralytics YOLO26 è un modello di Vision AI migliore, più veloce e più piccolo. In questo articolo, esploreremo le caratteristiche principali di Ultralytics YOLO26 e cosa offre. Iniziamo! 

Superare i limiti della Vision AI con Ultralytics YOLOv8

Prima di analizzare le caratteristiche principali di Ultralytics YOLO26 e le applicazioni che rende possibili, facciamo un passo indietro e discutiamo l'ispirazione e la motivazione che hanno guidato lo sviluppo di questo modello.

In Ultralytics, abbiamo sempre creduto nel potere dell'innovazione. Fin dall'inizio, la nostra missione è stata duplice. Da un lato, vogliamo rendere la Vision AI accessibile in modo che chiunque possa utilizzarla senza barriere. Dall'altro, siamo ugualmente impegnati a mantenerla all'avanguardia, spingendo i confini di ciò che i modelli di computer vision possono raggiungere.

Un fattore chiave alla base di questa missione è che lo spazio dell'IA è in continua evoluzione. Ad esempio, l'edge AI, che prevede l'esecuzione di modelli di IA direttamente sui dispositivi invece di fare affidamento sul cloud, viene adottata rapidamente in tutti i settori.

Dalle telecamere intelligenti ai sistemi autonomi, ci si aspetta che i dispositivi all'edge elaborino le informazioni in tempo reale. Questo cambiamento richiede modelli più leggeri e veloci, pur mantenendo lo stesso alto livello di accuratezza.

Ecco perché c'è una costante necessità di continuare a migliorare i nostri modelli Ultralytics YOLO. Come afferma Glenn Jocher, "Una delle maggiori sfide è stata assicurarsi che gli utenti potessero ottenere il massimo da YOLO26, pur offrendo prestazioni di alto livello."

Una panoramica di Ultralytics YOLOv8

YOLO26 è disponibile immediatamente in cinque diverse varianti di modello, offrendoti la flessibilità di sfruttare le sue capacità in applicazioni di qualsiasi dimensione. 
Tutte queste varianti di modello supportano molteplici task di computer vision, proprio come i precedenti modelli Ultralytics YOLO. Ciò significa che, indipendentemente dalle dimensioni scelte, puoi fare affidamento su YOLO26 per offrire un'ampia gamma di funzionalità, proprio come Ultralytics YOLO11.

Ecco una panoramica delle attività di computer vision supportate da YOLO26:

  • Object detection: YOLO26 è in grado di identificare e localizzare più oggetti all'interno di un'immagine o di un fotogramma video.
  • Segmentazione delle istanze: Andando oltre il rilevamento, YOLOv8 può generare confini perfetti al pixel intorno a ciascun oggetto che identifica. 
  • Classificazione delle immagini: Il modello può analizzare un'intera immagine e assegnarla a una categoria o etichetta specifica.

  • Stima della posa: YOLO26 è in grado di rilevare i punti chiave e stimare le pose per gli esseri umani e altri oggetti.

  • Bounding box orientati (OBB): Il modello è in grado di rilevare oggetti a qualsiasi angolazione, il che è particolarmente utile per immagini aeree, da droni e satellitari, dove elementi come edifici, veicoli o colture potrebbero non essere allineati con l'inquadratura dell'immagine.

  • Object tracking: YOLO26 può essere utilizzato per tracciare oggetti attraverso fotogrammi video o stream in tempo reale.
Fig. 2. Rilevamento di oggetti in un'immagine utilizzando YOLO26.

Uno sguardo all'architettura di YOLO26

Ora che abbiamo una migliore comprensione di ciò che YOLOv8 è in grado di fare, esaminiamo alcune delle innovazioni nella sua architettura.

Il design del modello è stato semplificato rimuovendo il modulo Distribution Focal Loss (DFL), che in precedenza rallentava l'inferenza e limitava la regressione del bounding box. 

Il processo di previsione è stato inoltre semplificato con un'opzione di inferenza end-to-end (E2E), che consente al modello di saltare il tradizionale passaggio di Non-Maximum Suppression (NMS). Questo miglioramento riduce la complessità e consente al modello di fornire risultati più rapidamente, semplificando l'implementazione in applicazioni reali.

Altri miglioramenti rendono il modello più intelligente e affidabile. Il Progressive Loss Balancing (ProgLoss) aiuta a stabilizzare l'addestramento e a migliorare la precisione, mentre lo Small-Target-Aware Label Assignment (STAL) assicura che il modello rilevi gli oggetti piccoli in modo più efficace. Inoltre, un nuovo ottimizzatore MuSGD migliora la convergenza dell'addestramento e aumenta le prestazioni complessive.

Infatti, la versione più piccola di YOLO26, il modello nano, ora funziona fino al 43% più velocemente sulle CPU standard, rendendolo particolarmente adatto per app mobili, telecamere intelligenti e altri dispositivi edge dove velocità ed efficienza sono fondamentali.

Ecco un breve riepilogo delle funzionalità di YOLO26 e di ciò che gli utenti possono aspettarsi:

  • Rimozione di DFL: Abbiamo rimosso il modulo Distribution Focal Loss dall'architettura del modello. Indipendentemente dalle dimensioni degli oggetti in un'immagine, YOLO26 può posizionare bounding box su misura, funzionando in modo più efficiente.
  • Inferenza end-to-end senza NMS: YOLO26 aggiunge una modalità opzionale che non necessita della Non-Maximum Suppression (NMS), un passaggio normalmente utilizzato per rimuovere le predizioni duplicate, rendendo il deployment più semplice e veloce per l'uso in tempo reale.
  • ProgLoss e STAL: Questi miglioramenti rendono l'addestramento più stabile e aumentano significativamente l'accuratezza, soprattutto per il rilevamento di piccoli oggetti in scene complesse.
  • Ottimizzatore MuSGD: YOLO26 utilizza un nuovo ottimizzatore che combina i punti di forza di due ottimizzatori di training (Muon e SGD), aiutando il modello ad apprendere più velocemente e a raggiungere una maggiore accuratezza.
Fig. 3. Benchmarking di YOLO26.

Semplificazione della distribuzione con Ultralytics YOLO26 

Che tu stia lavorando su app mobili, telecamere intelligenti o sistemi aziendali, la distribuzione di YOLO26 è semplice e flessibile. Il pacchetto Python Ultralytics supporta un numero sempre crescente di formati di esportazione, il che rende facile integrare YOLO26 nei flussi di lavoro esistenti e lo rende compatibile con quasi tutte le piattaforme. 

Alcune delle opzioni di esportazione includono TensorRT per la massima accelerazione GPU, ONNX per un'ampia compatibilità, CoreML per app iOS native, TFLite per dispositivi Android ed edge e OpenVINO per prestazioni ottimizzate su hardware Intel. Questa flessibilità rende semplice portare YOLOv8 dallo sviluppo alla produzione senza ulteriori ostacoli.

Un'altra parte cruciale della distribuzione è assicurarsi che i modelli funzionino in modo efficiente su dispositivi con risorse limitate. È qui che entra in gioco la quantizzazione. Grazie alla sua architettura semplificata, YOLO26 gestisce questo aspetto in modo eccezionale. Supporta la distribuzione INT8 (utilizzando la compressione a 8 bit per ridurre le dimensioni e migliorare la velocità con una perdita minima di accuratezza) così come la mezza precisione (FP16) per un'inferenza più rapida sull'hardware supportato. 

Ancora più importante, YOLO26 offre prestazioni coerenti su questi livelli di quantizzazione, quindi puoi fare affidamento su di esso sia che venga eseguito su un server potente o su un dispositivo edge compatto.

Dalla robotica alla produzione: Casi d'uso di YOLOv8 

YOLO26 può essere utilizzato in un'ampia varietà di applicazioni di computer vision in diversi settori e casi d'uso. Dalla robotica alla produzione, può avere un impatto significativo migliorando i flussi di lavoro e consentendo un processo decisionale più rapido e accurato.

Ad esempio, un buon esempio è nella robotica, dove YOLO26 può aiutare i robot a interpretare l'ambiente circostante in tempo reale. Ciò rende la navigazione più fluida e la gestione degli oggetti più precisa. Consente inoltre una collaborazione più sicura con le persone.

Un altro esempio è la produzione, dove il modello può essere utilizzato per il rilevamento dei difetti. Può identificare automaticamente i difetti sulle linee di produzione in modo più rapido e accurato rispetto all'ispezione manuale.

Fig. 4. Rilevamento di bottiglie in una fabbrica di produzione tramite YOLO26.

In generale, poiché YOLO26 è migliore, più veloce e più leggero, si adatta facilmente a una vasta gamma di ambienti, dai dispositivi edge leggeri ai grandi sistemi aziendali. Questo lo rende una scelta pratica per le industrie che cercano di migliorare l'efficienza, l'accuratezza e l'affidabilità.

Punti chiave 

Ultralytics YOLO26 è un modello di computer vision migliore, più veloce e più leggero, pur rimanendo facile da usare e offrendo prestazioni elevate. Funziona su una vasta gamma di attività e piattaforme e sarà disponibile per tutti entro la fine di ottobre. Non vediamo l'ora di vedere come la community lo utilizzerà per creare nuove soluzioni e spingere i confini della computer vision.

Unisciti alla nostra community in crescita! Esplora il nostro repository GitHub per saperne di più sull'AI. Scopri innovazioni come la computer vision nel retail e l'AI nel settore automobilistico visitando le nostre pagine delle soluzioni. Per iniziare subito a sviluppare con la computer vision, scopri le nostre opzioni di licenza.

Costruiamo insieme il futuro
dell'AI!

Inizia il tuo viaggio con il futuro del machine learning

Inizia gratis
Link copiato negli appunti